CN116433887B - 基于人工智能的建筑物快速定位方法 - Google Patents
基于人工智能的建筑物快速定位方法 Download PDFInfo
- Publication number
- CN116433887B CN116433887B CN202310685846.2A CN202310685846A CN116433887B CN 116433887 B CN116433887 B CN 116433887B CN 202310685846 A CN202310685846 A CN 202310685846A CN 116433887 B CN116433887 B CN 116433887B
- Authority
- CN
- China
- Prior art keywords
- points
- image
- scale
- obtaining
- blurred
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 13
- 238000012512 characterization method Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims abstract description 8
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 7
- 230000008034 disappearance Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002996 descriptor matching method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像数据处理技术领域,提出了基于人工智能的建筑物快速定位方法,包括:获取目标建筑物图像和查找图像;得到差分图像和模糊图像,差分图像的关键点构建拓扑三角网结构;得到模糊图像的特征点,得到模糊图像的消失特征点;将与关键点直接相连的特征点作为参考点,根据参考点消失的数量和消失特征点与关键点的欧氏距离得到的特征强度,根据特征强度构成的序列得到边值;得到图结构,将图结构转换为向量得到相似度,根据图结构的相似度得到每个尺度的表征性,得到基准尺度;根据基准尺度得到目标区域,完成了建筑物的快速定位。本发明对尺度特征点进行匹配计算,得到查找图像中的目标建筑物,大大提高了匹配速度,实现快速定位。
Description
技术领域
本发明涉及图像数据处理技术领域,具体涉及基于人工智能的建筑物快速定位方法。
背景技术
在建筑领域或者其它领域,经常会出现对目标建筑物拍摄了一张图片,需要在很多张图片中快速定位找到该目标建筑物的情况,但是含有该建筑物的图片中往往场景较为复杂,现有方法往往通过sift描述子匹配的方法进行定位,但场景本来就较为复杂,可能存在很多相似建筑物,即使是相同的建筑物在不同的视角下也会有不同的特征点,对于不同视角下的建筑物直接使用sift描述子进行匹配得到的匹配点是不精确的,根据不精确的匹配点得到匹配结果也是不精确的,除此之外,不同的图像具有不同的尺度,在不同尺度下也无法得到相同的匹配点,且sift描述子匹配时,大量的描述子进行匹配计算量较大。
发明内容
本发明提供基于人工智能的建筑物快速定位方法,以解决场景本来就较为复杂,计算量较大的问题,所采用的技术方案具体如下:
本发明一个实施例提供了基于人工智能的建筑物快速定位方法,该方法包括以下步骤:
获取目标建筑物图像和查找图像;
得到目标建筑物图像的图像金字塔以及差分图像,根据图像金字塔得到模糊图像,得到差分图像的关键点,并构建拓扑三角网结构;
将模糊图像使用sift描述子时的初始极值点作为特征点,将同一尺度下的模糊图像按照模糊程度从小到大排序,将第一张模糊图像的特征点记为初始特征点,根据初始特征点得到其余模糊图像的消失特征点;
对每张模糊图像的特征点得到一个拓扑三角网结构,将拓扑三角网结构中与关键点直接相连的特征点作为参考点,根据每个关键点在每张模糊图像中参考点消失的数量以及消失特征点与关键点的欧式距离得到关键点的特征强度,将同一个关键点在同一尺度下的不同模糊图像中得到的特征强度得到特征变化序列,对于关键点构成的拓扑三角网结构,将两个关键点的特征变化序列的余弦相似度作为两个关键点连线的边值;
将不同尺度上的关键点的拓扑三角网结构记为图结构,关键点为图结构的节点,将每个图结构转换为向量,将向量的余弦相似度记为图结构的相似度,将每个尺度记为第一尺度,根据第一尺度的图结构与每个比第一尺度小的尺度对应的图结构的相似度以及图结构的数量得到每个尺度的表征性,将表征性最大的尺度记为基准尺度;
根据基准尺度将查找图像和目标建筑物图像进行关键点匹配得到目标区域,完成了建筑物的快速定位。
优选的,所述根据图像金字塔得到模糊图像的方法为:
将目标建筑物图像经过下采样得到若干张不同尺度的图像,若干张不同尺度的图像构建图像金字塔,将每个不同尺度的图像使用高斯卷积对其进行模糊,每一个尺度得到相同数量的图像,高斯卷积的卷积模板相同,将不同尺度下的图像使用高斯卷积模糊后的图像称为模糊图像,同一尺度下有多个模糊图像。
优选的,所述根据初始特征点得到其余模糊图像的消失特征点的方法为:
得到第二张模糊图像的所有特征点,将第二张模糊图像的特征点和第一张模糊图像的特征点相比缺少的特征点记为第二消失特征点,得到第三张模糊图像的所有特征点,将第三张模糊图像的特征点和第一张模糊图像的特征点相比缺少的特征点记为第三消失特征点,依次类推,得到每张模糊图像的消失特征点。
优选的,所述参考点的获取方法为:
其中特征点必然包含关键点,对于每张模糊图像得到的拓扑三角网结构,找到每个关键点在拓扑三角网结构中直接相连的特征点,将与每个关键点直接相连的特征点作为这个关键点的参考点,值得说明的是,直接相连是指在拓扑三角网结构中,关键点和特征点之间存在一条连线,且关键点和特征点的连线之间没有另一个点。
优选的,所述根据每个关键点在每张模糊图像中参考点消失的数量以及消失特征点与关键点的欧式距离得到关键点的特征强度的方法为:
式中,表示第j个关键点在第z张模糊图像的特征点构成的拓扑三角网结构中关键点的参考点消失的数量,/>表示第j个关键点在第z张模糊图像中参考点的数量,表示第j个关键点第z张模糊图像的第i个消失特征点与关键点的欧氏距离, />为以自然常数为底的指数函数,/>表示第j个关键点在第z张模糊图像的特征强度。
优选的,所述根据第一尺度的图结构与每个比第一尺度小的尺度对应的图结构的相似度以及图结构的数量得到每个尺度的表征性的方法为:
式中,表示尺度小于第e个图结构的所有图结构中与第e个图结构的相似度大于相似度阈值的图结构的数量,/>表示尺度小于第e个图结构的图结构的数量,/>表示尺度小于第e个图结构的所有图结构中第u个图结构与第e个图结构的相似度,/>为第e个图结构对应尺度的表征性。
本发明的有益效果是:本发明提出了基于人工智能的建筑物快速定位方法,通过在每个尺度下构建拓扑三角网,减小了视角的不同可能造成的特征点匹配失误问题,得到了在不同视角下有不变特征的特征点,将满足条件的特征所在尺度作为基准尺度,通过基准尺度下的关键点的匹配,通过对目标建筑物图像中的基准尺度进行计算,进而通过图像比例尺关系获得查找图像的对应尺度,通过两个尺度下的关键点的匹配,筛除了大量的不符合的特征点,对满足区域进行所有尺度特征点的匹配计算,进而得到查找图像中的目标建筑物,与原始的sift匹配相比,需要对所有尺度下的关键点均进行匹配计算来说,大大提高了匹配速度,实现快速定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例所提供的基于人工智能的建筑物快速定位方法的流程示意图;
图2为高斯金字塔和差分金字塔。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明中,目的是建筑物的快速定位方法,即将找到建筑物在地图中的位置,因此将地图作为查找图像集。
请参阅图1,其示出了本发明一个实施例提供的基于人工智能的建筑物快速定位方法流程图,该方法包括以下步骤:
步骤S001,采集目标建筑物图像和查找图像。
使用相机采集建筑物的图像记为目标建筑物图像,将地图分割为多张查找图像,其中查找图像的大小是相同的。
至此,获得目标建筑物图像和若干张查找图像组成的查找图像集。
步骤S002,构建图像金字塔和差分金字塔,得到关键点,根据差分图像的关键点构建拓扑三角网结构,根据模糊图像特征点的消失情况得到拓扑三角网结构的边值。
由于目标建筑物图像和查找图像的视角不同,需要找到不同视角下有不变特征的关键点,将这些关键点作为查找图像得到目标建筑物特征点的筛选依据,进而筛除大量的不满足条件的关键点,减小匹配计算量,快速定位得到目标建筑物。
拓扑关系是一种受视角、尺度等影响较小的关系,三角网常用来表示拓扑结构,而sift特征点计算过程中是在每个DOG差分金字塔的图上计算得到关键点的,因此首先计算得到每个差分图像上的三角网图结构,表示拓扑关系,如图2所示,DOG差分金字塔中,目标建筑物图像经过下采样后得到若干张尺度不同的图像构成图像金字塔,对于每张尺度的图像使用不同程度的高斯模糊,即得到每个尺度下对应多张不同模糊程度的图像,DOG差分金字塔为公知技术,在此不做详细赘述。图2左侧为不同尺度下不同模糊程度的图像,右侧为DOG差分金字塔中的图像,所述关键点是在右侧的差分图像上计算得到的。
具体的,对于目标建筑物图像得到DOG差分金字塔,DOG差分金字塔中有若干差分图像,对于每张差分图像通过sift描述子分析得到差分图像上的关键点,对每个差分图像上的所有关键点通过Delaunay三角剖分的方法得到拓扑三角网结构,Delaunay三角剖分为现有技术,在此不多做赘述,三角网中的节点为差分图像中的关键点。
将同一尺度下不同模糊程度的图像记为模糊图像,对于DOG差分金字塔来说,同尺度下的不同模糊程度的模糊图像均会对应一个拓扑三角网结构,在sift描述子中将初始极值点记为特征点,对于同一尺度的模糊图像来说,随着模糊程度的变化,不同模糊程度对应的模糊图像的特征点的数量也会变化,模糊度越大,特征点数量越少,对于同一尺度下不同模糊程度的模糊图像根据模糊程度从小到大的顺序进行排列,此时第一张模糊图像的特征点的数量最多,将第一张模糊图像上的特征点记为初始特征点,将在第二张模糊图像相比第一张模糊图像上消失的特征点称之为第二消失特征点,将在第三张模糊图像相比第一张模糊图像上消失的特征点称之为第三消失特征点,依次类推,得到同一尺度下的模糊图像的消失特征点。
如果某个关键点距离消失特征点的距离越近,但该点最终成为关键点,表示该点与其它点的差异较大,特征性较强,与越快消失特征点的距离越近,该点仍然成为了关键点,说明该点的特征性越强,进而可以计算得到该关键点在每张图像上的特征强度,多张图像的特征强度形成序列,作为该点的变化特征。然后通过变化特征相似性得到关键点拓扑三角网结构中的边值。
首先构建每个尺度下的第一张模糊图像的所有特征点的拓扑三角网结构,此时的所有特征点必然包含关键点,在拓扑三角网结构中与关键点直接相连的特征点作为该关键点的参考点,对于每一张模糊图像的每一个关键点,得到该关键点的参考点相比第一张模糊图像上该关键点的参考点少的数量记为参考点消失的数量,根据关键点在每张模糊图像中参考点的消失的数量以及消失特征点和关键点的欧氏距离得到关键点的特征强度,公式如下:
式中,表示第j个关键点在第z张模糊图像的特征点构成的拓扑三角网结构中关键点的参考点消失的数量,/>表示第j个关键点在第z张模糊图像中参考点的数量,表示第j个关键点第z张模糊图像的第i个消失特征点与关键点的欧氏距离, />为以自然常数为底的指数函数,/>表示第j个关键点在第z张模糊图像的特征强度,其中/>的比值越大,表示每个关键点对应的越多的参考点在第二张模糊图像中消失,关键点的特征强度越大,/>越小,表示在相近的模糊作用下,关键点仍然可以保持本身特征,即关键点特征较为明显,关键点的特征强度越大。
得到每个关键点在不同模糊图像中的特征强度,构成一个序列记为特征变化序列,特征变化序列是由同一个关键点在不同模糊图像中的特征强度组成的。
在关键点构成的拓扑三角网结构中,将每条边的两个关键点对应的特征变化序列的余弦相似度作为拓扑三角网络的边值。
至此,得到了每个尺度上的关键点对应的拓扑三角网结构。
步骤S003,根据不同尺度下关键点的拓扑三角网结构的相似度得到每个尺度的表征性,得到基准尺度。
将不同尺度上的关键点对应的拓扑三角网结构称为一个图结构,对于尺度较大的图结构,可以通过图聚类的方式得到小于该尺度的预测图结构,该尺度下的预测图结构与其他尺度的图结构相似度越大,该尺度下的图结构越可以作为不同尺度下图结构的表示,因此需要计算目标建筑物图像某一尺度下的关键点与每个查找图像上对应尺度下的关键点的匹配,得到初始匹配区域,即可筛选掉许多区域,与原始方法每个尺度上的特征点匹配计算相比,大大减少了计算量,达到了快速定位的目的。
具体的,对将每个尺度的关键点对应的图结构的节点通过图聚类的方法进行聚类,图聚类为公知算法在此不做赘述,迭代聚类的过程中类别的数量逐渐减少,在较大尺度变为较小尺度的过程中,关键点数量也会相应减少,对于最大尺度的图像,将第一次聚类结果中每个类别用单个节点表示,称为该尺度的第一模拟图结构,通过谱嵌入的方法将比最大尺度小一个尺度的图结构转换为向量形式,并将最大尺度对应的图也转换为向量形式,谱嵌入为公知技术,在此不做赘述,将两个向量的余弦相似度作为两个图结构的相似度,由此可以得到每个尺度下的图结构与小于该尺度的每个图结构的相似度,由此得到每个尺度的表征性,公式如下:
式中,表示尺度小于第e个图结构的所有图结构中与第e个图结构的相似度大于0.7 的图结构的数量,/>表示尺度小于第e个图结构的图结构的数量,/>表示尺度小于第e个图结构的所有图结构中第u个图结构与第e个图结构的相似度,/>为第e个图结构对应尺度的表征性。其中/>比值越大,该尺度能表示的尺度越多,该尺度的表征性越好。
将所有尺度中的表征性最大的尺度记为基准尺度。
至此,得到了基准尺度。
步骤S004,根据基准尺度得到目标区域完成建筑物的快速定位。
根据查找图像和目标建筑物图像的尺度比得到比例尺,根据比例尺得到目标建筑物图像基准尺度下对应的查找图像的对应尺度,目标建筑物图像在基准尺度下的关键点与查找图像集中所有查找图像在对应尺度下的关键点进行匹配得到若干区域,将这些区域记为候选区域,对于每个候选区域,通过所有尺度下的关键点的匹配,计算匹配度,所述匹配度即所有匹配对的相似度的均值,将最大均值区域作为目标区域,其中关键点匹配为公知技术,在此不做赘述。
目标区域即为目标建筑物图像所在的区域,由此完成了建筑物的快速定位。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.基于人工智能的建筑物快速定位方法,其特征在于,该方法包括以下步骤:
获取目标建筑物图像和查找图像;
得到目标建筑物图像的图像金字塔以及差分图像,根据图像金字塔得到模糊图像,得到差分图像的关键点,并构建拓扑三角网结构;
将模糊图像使用sift描述子时的初始极值点作为特征点,将同一尺度下的模糊图像按照模糊程度从小到大排序,将第一张模糊图像的特征点记为初始特征点,根据初始特征点得到其余模糊图像的消失特征点;
对每张模糊图像的特征点得到一个拓扑三角网结构,将拓扑三角网结构中与关键点直接相连的特征点作为参考点,根据每个关键点在每张模糊图像中参考点消失的数量以及消失特征点与关键点的欧式距离得到关键点的特征强度,将同一个关键点在同一尺度下的不同模糊图像中得到的特征强度得到特征变化序列,对于关键点构成的拓扑三角网结构,将两个关键点的特征变化序列的余弦相似度作为两个关键点连线的边值;
将不同尺度上的关键点的拓扑三角网结构记为图结构,关键点为图结构的节点,将每个图结构转换为向量,将向量的余弦相似度记为图结构的相似度,将每个尺度记为第一尺度,根据第一尺度的图结构与每个比第一尺度小的尺度对应的图结构的相似度以及图结构的数量得到每个尺度的表征性,将表征性最大的尺度记为基准尺度;
根据基准尺度将查找图像和目标建筑物图像进行关键点匹配得到目标区域,完成了建筑物的快速定位;
所述根据每个关键点在每张模糊图像中参考点消失的数量以及消失特征点与关键点的欧式距离得到关键点的特征强度的方法为:
式中,表示第j个关键点在第z张模糊图像的特征点构成的拓扑三角网结构中关键点的参考点消失的数量,/>表示第j个关键点在第z张模糊图像中参考点的数量,/>表示第j个关键点第z张模糊图像的第i个消失特征点与关键点的欧氏距离, />为以自然常数为底的指数函数,/>表示第j个关键点在第z张模糊图像的特征强度;
所述根据第一尺度的图结构与每个比第一尺度小的尺度对应的图结构的相似度以及图结构的数量得到每个尺度的表征性的方法为:
式中,表示尺度小于第e个图结构的所有图结构中与第e个图结构的相似度大于相似度阈值的图结构的数量,/>表示尺度小于第e个图结构的图结构的数量,/>表示尺度小于第e个图结构的所有图结构中第u个图结构与第e个图结构的相似度,/>为第e个图结构对应尺度的表征性。
2.根据权利要求1所述的基于人工智能的建筑物快速定位方法,其特征在于,所述根据图像金字塔得到模糊图像的方法为:
将目标建筑物图像经过下采样得到若干张不同尺度的图像,若干张不同尺度的图像构建图像金字塔,将每个不同尺度的图像使用高斯卷积对其进行模糊,每一个尺度得到相同数量的图像,高斯卷积的卷积模板相同,将不同尺度下的图像使用高斯卷积模糊后的图像称为模糊图像,同一尺度下有多个模糊图像。
3.根据权利要求1所述的基于人工智能的建筑物快速定位方法,其特征在于,所述根据初始特征点得到其余模糊图像的消失特征点的方法为:
得到第二张模糊图像的所有特征点,将第二张模糊图像的特征点和第一张模糊图像的特征点相比缺少的特征点记为第二消失特征点,得到第三张模糊图像的所有特征点,将第三张模糊图像的特征点和第一张模糊图像的特征点相比缺少的特征点记为第三消失特征点,依次类推,得到每张模糊图像的消失特征点。
4.根据权利要求1所述的基于人工智能的建筑物快速定位方法,其特征在于,所述参考点的获取方法为:
其中特征点必然包含关键点,对于每张模糊图像得到的拓扑三角网结构,找到每个关键点在拓扑三角网结构中直接相连的特征点,将与每个关键点直接相连的特征点作为这个关键点的参考点,值得说明的是,直接相连是指在拓扑三角网结构中,关键点和特征点之间存在一条连线,且关键点和特征点的连线之间没有另一个点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310685846.2A CN116433887B (zh) | 2023-06-12 | 2023-06-12 | 基于人工智能的建筑物快速定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310685846.2A CN116433887B (zh) | 2023-06-12 | 2023-06-12 | 基于人工智能的建筑物快速定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116433887A CN116433887A (zh) | 2023-07-14 |
CN116433887B true CN116433887B (zh) | 2023-08-15 |
Family
ID=87084122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310685846.2A Active CN116433887B (zh) | 2023-06-12 | 2023-06-12 | 基于人工智能的建筑物快速定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116433887B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116958172B (zh) * | 2023-08-01 | 2024-01-30 | 金景(海南)科技发展有限公司 | 基于三维空间信息的城市保护与更新评估方法 |
CN117975569A (zh) * | 2024-02-29 | 2024-05-03 | 欧亚高科数字技术有限公司 | 一种虚拟仿真的麻醉师动作捕捉方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247040A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于分层拓扑结构的多机器人系统地图拼接方法 |
CN106204660A (zh) * | 2016-07-26 | 2016-12-07 | 华中科技大学 | 一种基于特征匹配的地面目标跟踪装置 |
CN107392215A (zh) * | 2017-08-02 | 2017-11-24 | 焦点科技股份有限公司 | 一种基于sift算法的重图检测方法 |
CN108509834A (zh) * | 2018-01-18 | 2018-09-07 | 杭州电子科技大学 | 基于多元对数高斯分布下视频特征的图结构规约方法 |
CN108664983A (zh) * | 2018-05-21 | 2018-10-16 | 天津科技大学 | 一种尺度与特征强度自适应的surf特征点匹配方法 |
CN110766061A (zh) * | 2019-10-15 | 2020-02-07 | 武汉中海庭数据技术有限公司 | 一种道路场景匹配方法及装置 |
CN113538501A (zh) * | 2021-08-24 | 2021-10-22 | 荆门汇易佳信息科技有限公司 | 低空图像dsm生成建筑物边缘精细化方法 |
CN114529827A (zh) * | 2022-04-25 | 2022-05-24 | 启东亚恒机电设备科技有限公司 | 基于人工智能的矿产边界检测方法及系统 |
CN115205564A (zh) * | 2022-09-16 | 2022-10-18 | 山东辰升科技有限公司 | 基于无人机的船体维护巡检方法 |
CN115471682A (zh) * | 2022-09-13 | 2022-12-13 | 杭州电子科技大学 | 一种基于SIFT融合ResNet50的图像匹配方法 |
CN116167921A (zh) * | 2023-04-21 | 2023-05-26 | 深圳市南天门网络信息有限公司 | 一种飞行太空舱全景图像拼接方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018113911A1 (en) * | 2016-12-20 | 2018-06-28 | Softkinetic Software | Distance-independent keypoint detection |
CN108615248B (zh) * | 2018-04-27 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
CN110532414B (zh) * | 2019-08-29 | 2022-06-21 | 深圳市商汤科技有限公司 | 一种图片检索方法及装置 |
-
2023
- 2023-06-12 CN CN202310685846.2A patent/CN116433887B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247040A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于分层拓扑结构的多机器人系统地图拼接方法 |
CN106204660A (zh) * | 2016-07-26 | 2016-12-07 | 华中科技大学 | 一种基于特征匹配的地面目标跟踪装置 |
CN107392215A (zh) * | 2017-08-02 | 2017-11-24 | 焦点科技股份有限公司 | 一种基于sift算法的重图检测方法 |
CN108509834A (zh) * | 2018-01-18 | 2018-09-07 | 杭州电子科技大学 | 基于多元对数高斯分布下视频特征的图结构规约方法 |
CN108664983A (zh) * | 2018-05-21 | 2018-10-16 | 天津科技大学 | 一种尺度与特征强度自适应的surf特征点匹配方法 |
CN110766061A (zh) * | 2019-10-15 | 2020-02-07 | 武汉中海庭数据技术有限公司 | 一种道路场景匹配方法及装置 |
CN113538501A (zh) * | 2021-08-24 | 2021-10-22 | 荆门汇易佳信息科技有限公司 | 低空图像dsm生成建筑物边缘精细化方法 |
CN114529827A (zh) * | 2022-04-25 | 2022-05-24 | 启东亚恒机电设备科技有限公司 | 基于人工智能的矿产边界检测方法及系统 |
CN115471682A (zh) * | 2022-09-13 | 2022-12-13 | 杭州电子科技大学 | 一种基于SIFT融合ResNet50的图像匹配方法 |
CN115205564A (zh) * | 2022-09-16 | 2022-10-18 | 山东辰升科技有限公司 | 基于无人机的船体维护巡检方法 |
CN116167921A (zh) * | 2023-04-21 | 2023-05-26 | 深圳市南天门网络信息有限公司 | 一种飞行太空舱全景图像拼接方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116433887A (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116433887B (zh) | 基于人工智能的建筑物快速定位方法 | |
CN108681692B (zh) | 一种基于深度学习的遥感图像内新增建筑识别方法 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN110334779B (zh) | 一种基于PSPNet细节提取的多聚焦图像融合方法 | |
CN109741341B (zh) | 一种基于超像素和长短时记忆网络的图像分割方法 | |
Patil et al. | MsEDNet: Multi-scale deep saliency learning for moving object detection | |
CN109063549B (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN110443775B (zh) | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 | |
CN112446436A (zh) | 基于生成对抗网络的抗模糊无人驾驶车辆多目标跟踪方法 | |
CN106157330B (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN110348299B (zh) | 三维物体的识别方法 | |
CN116310447B (zh) | 基于计算机视觉的遥感图像变化智能检测方法及系统 | |
CN111160217A (zh) | 一种行人重识别系统对抗样本生成方法及系统 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN110738695B (zh) | 一种基于局部变换模型的图像特征点误匹配剔除方法 | |
CN112581483B (zh) | 基于自学习的植物叶片叶脉分割方法和装置 | |
CN114419349B (zh) | 一种图像匹配方法和装置 | |
CN105631890B (zh) | 基于图像梯度和相位一致性的失焦图片质量评价方法 | |
CN116266387A (zh) | 基于重参数化残差结构和坐标注意力机制的yolov4的图像识别算法及系统 | |
CN116664892A (zh) | 基于交叉注意与可形变卷积的多时相遥感图像配准方法 | |
CN116258877A (zh) | 土地利用场景相似度变化检测方法、装置、介质及设备 | |
JP7300027B2 (ja) | 画像処理装置、画像処理方法、学習装置、学習方法、及びプログラム | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
CN113128518B (zh) | 基于孪生卷积网络和特征混合的sift误匹配检测方法 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |