CN114266830A - 地下大空间高精度定位方法 - Google Patents
地下大空间高精度定位方法 Download PDFInfo
- Publication number
- CN114266830A CN114266830A CN202111617089.2A CN202111617089A CN114266830A CN 114266830 A CN114266830 A CN 114266830A CN 202111617089 A CN202111617089 A CN 202111617089A CN 114266830 A CN114266830 A CN 114266830A
- Authority
- CN
- China
- Prior art keywords
- point
- space
- dimensional
- network model
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种地下大空间高精度定位方法,其包括:S1、在地下空间内布置标靶;S2、将空间影像图片数据转换成空间的三维点云模型,基于三维点云模型生成三角网模型;S3、基于训练好的深度学习网络模型中,输出空间实时影像图片的中心像素的同名像素点;S4、基于三角网模型,解算得到中心位置点的三维空间坐标;S5、绘制中心线,中心线的交点即为实时位置点。本发明可在没有GNSS信号和复杂电磁环境中进行实时位置定位,且本发明的定位方法成本较低,能够实现快速定位。
Description
技术领域
本发明涉及空间定位技术领域。更具体地说,本发明涉及一种地下大空间高精度定位方法。
背景技术
面向日益增长的高精度定位导航应用需求,当前常规的定位服务,大部分采用的定位技术在复杂建筑物内部或地下空间环境中都存在一些问题,不能够为地下大空间提供实时可靠的定位服务。
其中卫星导航需要在视野开阔、障碍物较少的新建区,野外、勘探定位等,在地下空间中,卫星信号质量差或根本无法接收到卫星,不能提供实时准确的位置服务;WIFI定位可以实现复杂的大范围定位,方便组网。WIFI定位缺点也明显存在:WIFI定位所用的WIFI标签是非标设计,只是数据格式参照802.11b格式,不支持标准WIFI协议;WIFI标签功耗较大,连续发射电流在200ma以上,电池寿命限制了WIFI定位标签的推广使用;标签成本相对较高,不利于大幅度推广;WIFI定位存在严重的同频干扰问题,系统会相互影响。蓝牙利用了接收端和信号源的强度变化来计算距离,再利用三角定位的方法对位置进行估测,但是在地下大空间复杂电磁环境下,难以建立准确的信号计算模型,定位延迟高,精度差,误差不能满足实时定位的需求;射频定位优点是标识的体积比较小,造价比较低,但是作用距离近,不具有通信能力,而且不便于整合到其他系统之中,无法做到精准定位,布设读卡器和天线需要有大量的工程实践经验难度大。超宽带是一种无载波通信技术,利用纳秒至微秒级的非正弦波窄脉冲传输数据,使用脉冲信号的接收时间差测量两者之间的距离,用三角定位法测算位置,在视距范围精度尚可,但在信号传播过程中受到多路径、非视距等原因影响,造成误差大,精度低的问题,通常的定位距离先定在20米,而且造价过高不适用与地下大空间;Zigbee技术是近年来新兴的短距离、低速率的无线网络技术,但是技术不够完善,仅能完成粗糙的定位,不能实现真正的实时的定位,存在精度不高的,受环境干扰影响大等问题。
发明内容
本发明的一个目的是解决至少上述问题,并提供至少后面将说明的优点。
本发明还有一个目的是提供一种地下大空间高精度定位方法,其解决了现有技术无法在地下大空间复杂电磁环境下的实时定位问题。
为了实现根据本发明的这些目的和其它优点,提供了一种地下大空间高精度定位方法,其包括以下步骤:
S1、在地下空间内布置标靶;
S2、利用全景相机系统采集空间影像图片数据,将空间影像图片数据转换成空间的三维点云模型,基于控制测量的方式用控制点坐标对三维点云模型进行绝对坐标转换,用转换后的三维点云模型生成三角网模型;全景相机系统包括八个单反相机;
S3、用步骤S2中得到空间影像图片数据作为样本集对深度学习网络模型进行训练,利用全景相机系统实时采集空间实时影像图片数据,将空间实时影像图片数据输入至训练好的深度学习网络模型中,进行同名像素匹配识别,输出八个单反相机拍摄的空间实时影像图片的中心像素的同名像素点;
S4、根据步骤S3得到的同名像素点,基于三角网模型,解算得到至少三个单反相机对应的物方中心位置点的三维空间坐标;
S5、根据步骤S4得到的至少三个物方中心位置点绘制至少三条中心线,至少三条中心线的交点即为实时位置点。
优选的是,所述的地下大空间高精度定位方法,所述全景相机系统的八个单反相机均位于同一水平面且分别位于正八边形的每条边的中部。
优选的是,所述的地下大空间高精度定位方法,步骤S2具体为:
基于近景摄影测量方法利用全景相机系统采集空间影像图片数据;
基于SFM算法将具有重叠的空间影像图片数据进行特征检测和匹配,根据物点、像点和投影中心三点共线原理,求解共线方程,并利用光束法进行全局优化得到空间的三维稀疏点云数据;
通过加密算法将三维稀疏点云数据转换为空间的三维点云模型;
基于控制测量测出控制点坐标,用控制点坐标对三维点云模型进行绝对坐标转换,用转换后的三维点云模型生成三角网模型。
优选的是,所述的地下大空间高精度定位方法,步骤S3中的深度学习网络模型的骨干网络的卷积为含有自注意力机制卷积,自注意力机制在通道维度中共享卷积核。
优选的是,所述的地下大空间高精度定位方法,步骤S4具体为:
如步骤S3得到的同名像素点为三角网模型的其中一个顶点,则该顶点的三维空间坐标即为同名像素点对应的三维空间坐标,如步骤S3得到的同名像素点在三角网模型的顶点之外的三角形中,则根据同名像素点对应的三角形的三个顶点坐标和像素相互关系计算同名像素点的三维空间坐标;
依据上述方法将每个同名像素点转换为三维空间坐标,即得每个单反相机对应的物方中心位置点的三维空间坐标。
优选的是,所述的地下大空间高精度定位方法,步骤S5中具体为:以任一物方中心位置点为起点,在水平面上绘制正八边形对应的边的垂线,即为中心线;
步骤S5中如至少三条中心线相交于同一点,则该交点对应的坐标即为实时位置点的坐标;如至少三条中心线未相交于同一点,则采用最小二乘法计算出拟交点,拟交点对应的坐标即为实时位置点的坐标。
本发明还提供一种电子设备,其包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述的方法。
本发明还提供一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求上述的方法。
本发明至少包括以下有益效果:
1、本发明实时位置定位成本低,施工周期短,系统维护方便快捷。本发明的定位方法可以在无GNSS信号和复杂电磁环境中正常运作,同时提供精确、低延迟的定位服务,可解决在地下大空间的复杂电磁环境下高精度实时定位问题。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明实时位置点的示意图;
图2为本发明全景相机系统的结构示意图
图3为本发明对应位置点在三角网模型顶点时绘制的中心线的示意图;
图4为本发明对应位置点不在三角网模型顶点时绘制的中心线的示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
应当理解,本文所使用的诸如“具有”、“包含”以及“包括”术语并不排除一个或多个其它元件或其组合的存在或添加。
需要说明的是,下述实施方案中所述实验方法,如无特殊说明,均为常规方法,所述试剂和材料,如无特殊说明,均可从商业途径获得。
在本发明的描述中,术语“横向”、“纵向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,并不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
本发明提供一种地下大空间高精度定位方法,其包括以下步骤:
S1、在地下空间内布置标靶;
S2、利用全景相机系统采集空间影像图片数据,将空间影像图片数据转换成空间的三维点云模型,基于控制测量的方式用控制点坐标对三维点云模型进行绝对坐标转换,用转换后的三维点云模型生成三角网模型;全景相机系统包括八个单反相机,任一单反相机拍摄之前均进行检校处理;
S3、用步骤S2中得到空间影像图片数据作为样本集对深度学习网络模型进行训练,利用全景相机系统实时采集空间实时影像图片数据,将空间实时影像图片数据输入至训练好的深度学习网络模型中,进行同名像素匹配识别,输出八个单反相机拍摄的空间实时影像图片的中心像素的同名像素点;一个单反相机对应一个同名像素点;
S4、根据步骤S3得到的同名像素点,基于三角网模型,解算得到至少三个单反相机对应的物方中心位置点的三维空间坐标;可解算三个及三个以上单反相机对应的物方中心位置点,优选的是八个单反相机的物方中心位置点的三维空间坐标均进行解算;
S5、根据步骤S4得到的至少三个物方中心位置点绘制至少三条中心线,至少三条中心线的交点即为实时位置点。优选的是八个物方中心位置点的三维空间坐标均得以解算,绘制八条中心线,取八条中心线的交点作为实时位置点。
本发明定位方法可以在无GNSS信号和复杂电磁环境中正常运作,同时提供精确、低延迟的定位服务,可解决在地下大空间的复杂电磁环境下高精度实时定位问题。本发明实时位置定位成本低,施工周期短,系统维护方便快捷。
如图2所示,另一种技术方案中,所述的地下大空间高精度定位方法,所述全景相机系统的八个单反相机均位于同一水平面且分别位于正八边形的每条边的中部。
本发明采用包括八个单反相机的全景相机系统采集空间影像图片数据,八个单反相机呈正八边形进行布局,能够确保数据采集过程中可无死角拍摄,保证影像数据的完整性,八个单反相机同时拍摄能够大大提高拍摄效率,降低采集数据的延迟;任一单反相机位于正八边形结构的一条边的中部,使得八个单反相机的法向线相交于同一点,便于后续的实时位置的定位。
另一种技术方案中,所述的地下大空间高精度定位方法,步骤S2具体为:
基于近景摄影测量方法利用全景相机系统采集空间影像图片数据;
基于SFM算法将具有重叠的空间影像图片数据进行特征检测和匹配,根据物点、像点和投影中心三点共线原理,求解共线方程,并利用光束法进行全局优化得到空间的三维稀疏点云数据;
通过加密算法将三维稀疏点云数据转换为空间的三维点云模型;
基于控制测量测出控制点坐标,用控制点坐标对三维点云模型进行绝对坐标转换,用转换后的三维点云模型生成三角网模型。选择影像图片中的标靶或其他参考物体作为控制点。
近景摄影测量的基本原理是以立体数字影像为基础,由计算机进行影像处理和影像匹配,自动识别相应像点及坐标,运用解析摄影测量方法确定目标物体的三维坐标并输出数字高程模型、正射影像及矢量线划图等。数字近景摄影测量在时效性、安全性、信息量、工作量方面有着其他测量方法所不能比拟的优势。
当物点、像点和投影中心共在一条直线上时,物点和像点的中心投影方程为共线方程。其中每一条光线都可以列出两个共线方程:
方程中,x,y为像点的平面坐标;x0,y0,为影像的内方位元素;Xd,Yd,Zd为相机的物方空间坐标;X,Y,Z是物方点的物方空间坐标。其中误差方程为:
v为坐标改正矩阵,∆为改正数矩阵,B为系数矩阵,l为差值矩阵。
法方程为:
其中P为观测值权阵。空间后方交会是已知像片的内方位元素和至少3个地面点坐标及其相应的像点坐标,利用共线方程式求解出像片的6个外方位元素。空间前方交会是利用2张以上的像片来计算地面点的三维坐标,该方法需要已知像点的坐标和像片的内、外方位元素。
另一种技术方案中,所述的地下大空间高精度定位方法,步骤S3中的深度学习网络模型的骨干网络的卷积为含有自注意力机制卷积,自注意力机制在通道维度中共享卷积核。
随着目标检测技术的提升,目前主流的目标检测算法主要是基于深度学习模型。本系统使用二维深度学习算法作为图片匹配的主要方式,系统将影像数据全图划分为S*S的格子,每个网格单元仅预测一个目标,预测固定数量的边界框,负责对落入其中的目标进行检测,一次性预测所有网格单元所含目标的边界框、定位置信度、以及所有类别概率向量,最终选出更为合适的边界框作为最后的定位。
预测时需要通过一些参数值来确定边界框,判断每个格子是否有目标被称为目标性,还有边界框中的坐标信息,以及类别的标签。在每个Box中需要确定五个值,其中包含x、y、w、h这四个坐标信息,以及一个置信度得分。框的置信度得分代表的是边界框框选的准确程度,以及框中包含的目标的可能性,如果有目标就判定其是哪一类目标,如果groundtruth中某个目标的中心坐标落在哪个网格单元中,那么就由该网格单元来预测该目标。两个Box之后是类别,不同数据集有不同的类别,对于PASCAL VOC数据集来说就有20个类别,这样一共是30个参数。
对于每个网格单元,需要预测B个边界框,每个框计算一个置信度得分,并且只检测一个目标而不管边界框B的数量。预测C个条件类别概率,对于可能的目标类别,每个类别预测一个值。总结来说就是将图像划分为S*S的网格,每一个网格单元预测B个边界框和框的置信得分以及C类别概率,这些预测被编码为S*S*(B*5+C)的张量。对于PASCAL VOC数据集来说,其中S=7,B=2,该数据集中有20个类别,因此C=20,最终的预测是7*7*30的张量。其中有3个框,每个网格单元有三个不同尺度的框来预测物体。
本发明对深度学习网络进行训练时的输入端进行了改进,具体为采用了Mosaic数据增强的方式,输入的样本集(样本集为第一次全景相机系统采集得到的空间影像数据)中随机使用4张图片,随机缩放,再随机分布进行拼接,经过Mosaic数据增强的方式大大丰富了检测训练集,特别是随机缩放增加了很多小目标,让网络的鲁棒性更好。
本发明的深度学习网络的网络结构包括三个部分:骨干(Backbone)网络、颈部网络和头部网络(两层conv结构),其中骨干网络为CSDarknet-53,本发明将CSDarknet-53中的卷积层替换成含有自注意力机制的卷积层,自注意力机制在通道维度中共享卷积核,通过自注意力机制学习出特征权重矩阵,得到的权重值越大的卷积核越重要,权重值前n个为共享的卷积核。
如今的模型需要大量的计算资源来生成准确的检测结果,但在移动或边缘设备上,更为关键的是计算效率与精度,为提升识别精度,加快识别速度,本申请加入了自注意力因子有效提高深度学习网络的识别精度和速度。
在自注意力因子中,没有采用固定的weight matrix作为可学习的参数,而是考虑基于输入feature map生成对应的kernel,从而确保kernel size和input feature size在空间维度上能够自动对齐。kernel生成的通用形式如下:
从简单有效的设计理念出发,提供了一种类似于SENet的bottleneck结构:就取为{(i,j)}这个单点集,即取为feature map上坐标为(i, j)的单个pixel,从而得到了kernel生成的一种实例化;
本发明在骨干网络中引入自注意力机制,并自注意力机制在通道维度中共享卷积核,通过自注意力机制对不同的输出通道都使用相同的卷积核,保证了通道不变性,通道不变性精简了参数量和计算量,首先制造内卷算子的卷积核,1X1卷积进行通道压缩=(C//压缩率);通道扩张到(组数G x K x K),卷积的参数量约K x K x C x C ,参数量相比减少。由于组内通道的核是共享的,所以其空间尺度中使用大尺寸的核不会增加参数量,解决了每个通道都要用不同的核计算带来的计算量大幅度的增加,使得在保证性能提升的前提下将计算复杂度大幅减少。
颈部(Neck)为SP和PNET,从输入端输入一张608*608*3的图像,进入Backbone主干网络,CSDarknet-53中有五个SP结构,每一个SP结构会对图像进行一次下采样,经过5次下采样之后最终得到19*19的特征图,一共会得到304*304、152*152、76*76、38*38和19*19这5个尺寸的特征图,选用最后三个尺寸的特征图输入到颈部。在颈部中从最小尺寸的特征图开始上采样,第一次上采样之后与第二小尺寸的特征图做拼接,然后再往上做上采样,与最大尺寸特征图做拼接,最终的拼接特征图做下采样,与第一次上采样拼接的特征图做拼接,之后继续下采样与最小尺寸特征图做拼接。最终会得到三路信息,每一路信息包含了不同尺寸特征图融合后的信息,再分别送到不同大小的 Head中处理,在 Head中会得到目标检测的结果。使用Mish函数作为激活函数(用Mish激活函数的TOP-1和TOP-5的精度比没有使用时都略高一些。),Mish激活函数表达式为:
其中在颈部加入了SPP(采用SPP模块的方式,比单纯的使用k * k最大池化的方式,更有效的增加主干特征的接收范围,显著的分离了最重要的上下文特征。),SPP首先在Faster-RCNN中被使用,从输入端输入一张特征图,然后进行多尺度的最大池化,池化后得到四路特征图,然后使用padding,padding尺寸比特征图尺寸小1,便会保留原特征图的大小。四路特征图拼接后经过一个卷积又可以恢复到最初使特征图的大小。将SPP引入到CSDarknet-53中,增加感受野,把最重要的特征提取出来,并且没有网络处理速度的损失。
颈部使用的PANet,PANet原理与FPN原理相似,但是FPN下面的信息经过多层网络后会信息丢失,PANet不仅有自顶向下的线路还有自下向上的线路,(FPN层自顶向下传达强语义特征,而特征金字塔则自底向上传达强定位特征,从不同的主干层对不同的检测层进行参数聚合)经过相同大小特征图的拼接后,既有底层的特征又有高层的语义特征。
另一种技术方案中,所述的地下大空间高精度定位方法,步骤S4具体为:
如步骤S3得到的同名像素点为三角网模型的其中一个顶点(如图3所示),则该顶点的三维空间坐标即为同名像素点对应的三维空间坐标,如步骤S3得到的同名像素点在三角网模型的顶点之外的三角形中(如图4所示),则根据同名像素点所在的三角形的三个顶点坐标和像素相互关系计算同名像素点的三维空间坐标;
依据上述方法将每个同名像素点转换为三维空间坐标,即得每个单反相机对应的物方中心位置点(同名像素点对应的三维空间坐标,就是该同名像素点对应的单反相机拍摄的图片影像中的物方中心位置点的三维空间坐标)的三维空间坐标。
上述技术方案是二维同名像素点基于三角网模型转换为三维空间坐标的过程,三角网模型是由若干个像素点封装形成,每个同名像素点与三角网模型中的一个像素点对应,根据这种对应关系,在三角网模型中找到同名像素点对应位置点,如对应位置点为三角网模型的三角形顶点上,因顶点本身就有对应三维空间坐标,则可直接确定顶点的三维空间坐标即为物方中心位置点的三维空间坐标;如对应位置点不在三角网模型的三角形顶点上,则根据对应位置所在的三角形的三个顶点的三维空间坐标与像素的相互关系,计算对应位置点的三维空间坐标,即得物方中心位置点的三维空间坐标。
另一种技术方案中,所述的地下大空间高精度定位方法,步骤S5中具体为:以任一物方中心位置点为起点,在水平面上绘制正八边形对应边的垂线,即为中心线;
步骤S5中如至少三条中心线相交于同一点,则该交点对应的坐标即为实时位置点的坐标;如至少三条中心线未相交于同一点,则采用最小二乘法计算出拟交点,拟交点对应的坐标即为实时位置点的坐标。
如图3所示,当同名像素点在三角网模型中的对应位置点在顶点上时,以三角形顶点作为起点,绘制该顶点对应的单反相机所在边的垂线,该垂线即为该单反相机对应的中心线;如图4所示,当在三角网模型中的对应位置点不在顶点上时,计算对应位置点的三维空间坐标,并以该对应位置点作为起点,绘制该对应位置点对应的单反相机所在边的垂线,该垂线即为该单反相机对应的中心线,同样的方法绘制出所有的物方中心位置点对应的中心线,如图1所示,八条中心线相较于T点,T点即为实时位置点。
本发明一种电子设备,其包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述的方法。
本发明一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成上述的方法。
这里说明的设备数量和处理规模是用来简化本发明的说明的。对本发明的应用、修改和变化对本领域的技术人员来说是显而易见的。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (8)
1.地下大空间高精度定位方法,其特征在于,包括以下步骤:
S1、在地下空间内布置标靶;
S2、利用全景相机系统采集空间影像图片数据,将空间影像图片数据转换成空间的三维点云模型,基于控制测量的方式用控制点坐标对三维点云模型进行绝对坐标转换,用转换后的三维点云模型生成三角网模型;全景相机系统包括八个单反相机;
S3、用步骤S2中得到空间影像图片数据作为样本集对深度学习网络模型进行训练,利用全景相机系统实时采集空间实时影像图片数据,将空间实时影像图片数据输入至训练好的深度学习网络模型中,进行同名像素匹配识别,输出八个单反相机拍摄的空间实时影像图片的中心像素的同名像素点;
S4、根据步骤S3得到的同名像素点,基于三角网模型,解算得到至少三个单反相机对应的物方中心位置点的三维空间坐标;
S5、根据步骤S4得到的至少三个物方中心位置点绘制至少三条中心线,至少三条中心线的交点即为实时位置点。
2.如权利要求1所述的地下大空间高精度定位方法,其特征在于,所述全景相机系统的八个单反相机均位于同一水平面且分别位于正八边形的每条边的中部。
3.如权利要求1所述的地下大空间高精度定位方法,其特征在于,步骤S2具体为:
基于近景摄影测量方法利用全景相机系统采集空间影像图片数据;
基于SFM算法将具有重叠的空间影像图片数据进行特征检测和匹配,根据物点、像点和投影中心三点共线原理,求解共线方程,并利用光束法进行全局优化得到空间的三维稀疏点云数据;
通过加密算法将三维稀疏点云数据转换为空间的三维点云模型;
基于控制测量测出控制点坐标,用控制点坐标对三维点云模型进行绝对坐标转换,用转换后的三维点云模型生成三角网模型。
4.如权利要求1所述的地下大空间高精度定位方法,其特征在于,步骤S3中的深度学习网络模型的骨干网络的卷积为含有自注意力机制卷积,自注意力机制在通道维度中共享卷积核。
5.如权利要求1所述的地下大空间高精度定位方法,其特征在于,步骤S4具体为:
如步骤S3得到的同名像素点为三角网模型的其中一个顶点,则该顶点的三维空间坐标即为同名像素点对应的三维空间坐标,如步骤S3得到的同名像素点在三角网模型的顶点之外的三角形中,则根据同名像素点对应的三角形的三个顶点坐标和像素相互关系计算同名像素点的三维空间坐标;
依据上述方法将每个同名像素点转换为三维空间坐标,即得每个单反相机对应的物方中心位置点的三维空间坐标。
6.如权利要求2所述的地下大空间高精度定位方法,其特征在于,步骤S5中具体为:以任一物方中心位置点为起点,在水平面上绘制正八边形对应的边的垂线,即为中心线;
步骤S5中如至少三条中心线相交于同一点,则该交点对应的坐标即为实时位置点的坐标;如至少三条中心线未相交于同一点,则采用最小二乘法计算出拟交点,拟交点对应的坐标即为实时位置点的坐标。
7.一种电子设备,其特征在于,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行权利要求1~6任一项所述的方法。
8.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1~6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111617089.2A CN114266830B (zh) | 2021-12-28 | 2021-12-28 | 地下大空间高精度定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111617089.2A CN114266830B (zh) | 2021-12-28 | 2021-12-28 | 地下大空间高精度定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114266830A true CN114266830A (zh) | 2022-04-01 |
CN114266830B CN114266830B (zh) | 2022-07-15 |
Family
ID=80830673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111617089.2A Active CN114266830B (zh) | 2021-12-28 | 2021-12-28 | 地下大空间高精度定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114266830B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581860A (zh) * | 2022-05-09 | 2022-06-03 | 武汉纺织大学 | 一种基于改进的YOLOv5模型的安全帽检测算法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102645209A (zh) * | 2012-04-24 | 2012-08-22 | 长江勘测规划设计研究有限责任公司 | 机载LiDAR点云和高分辨率影像进行空间点的联合定位方法 |
CN107564111A (zh) * | 2017-05-31 | 2018-01-09 | 武汉圆桌智慧科技有限公司 | 基于计算机视觉的电力线空间安全分析方法 |
CN107767440A (zh) * | 2017-09-06 | 2018-03-06 | 北京建筑大学 | 基于三角网内插及约束的文物序列影像精细三维重建方法 |
CN108596961A (zh) * | 2018-04-17 | 2018-09-28 | 浙江工业大学 | 基于三维卷积神经网络的点云配准方法 |
CN110619663A (zh) * | 2019-08-28 | 2019-12-27 | 山东科技大学 | 一种基于三维激光点云的视频影像目标定位方法 |
CN112348885A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 |
CN113689326A (zh) * | 2021-08-06 | 2021-11-23 | 西南科技大学 | 一种基于二维图像分割引导的三维定位方法 |
CN113776451A (zh) * | 2021-11-11 | 2021-12-10 | 长江空间信息技术工程有限公司(武汉) | 一种基于无人机摄影测量的变形监测自动化方法 |
-
2021
- 2021-12-28 CN CN202111617089.2A patent/CN114266830B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102645209A (zh) * | 2012-04-24 | 2012-08-22 | 长江勘测规划设计研究有限责任公司 | 机载LiDAR点云和高分辨率影像进行空间点的联合定位方法 |
CN107564111A (zh) * | 2017-05-31 | 2018-01-09 | 武汉圆桌智慧科技有限公司 | 基于计算机视觉的电力线空间安全分析方法 |
CN107767440A (zh) * | 2017-09-06 | 2018-03-06 | 北京建筑大学 | 基于三角网内插及约束的文物序列影像精细三维重建方法 |
CN108596961A (zh) * | 2018-04-17 | 2018-09-28 | 浙江工业大学 | 基于三维卷积神经网络的点云配准方法 |
CN112348885A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 |
CN110619663A (zh) * | 2019-08-28 | 2019-12-27 | 山东科技大学 | 一种基于三维激光点云的视频影像目标定位方法 |
CN113689326A (zh) * | 2021-08-06 | 2021-11-23 | 西南科技大学 | 一种基于二维图像分割引导的三维定位方法 |
CN113776451A (zh) * | 2021-11-11 | 2021-12-10 | 长江空间信息技术工程有限公司(武汉) | 一种基于无人机摄影测量的变形监测自动化方法 |
Non-Patent Citations (8)
Title |
---|
CARMELO MINEO ET AL.: ""Novel algorithms for 3D surface point cloud boundary detection and edge reconstruction"", 《JOURNAL OF COMPUTATIONAL DESIGN AND ENGINEERING》 * |
CARMELO MINEO ET AL.: ""Novel algorithms for 3D surface point cloud boundary detection and edge reconstruction"", 《JOURNAL OF COMPUTATIONAL DESIGN AND ENGINEERING》, vol. 6, no. 1, 31 January 2019 (2019-01-31) * |
UZAIR NADEEM ET AL.: ""Direct Image to Point Cloud Descriptors Matching for 6-DOF Camera Localization in Dense 3D Point Cloud"", 《ARXIV》 * |
UZAIR NADEEM ET AL.: ""Direct Image to Point Cloud Descriptors Matching for 6-DOF Camera Localization in Dense 3D Point Cloud"", 《ARXIV》, 14 January 2019 (2019-01-14) * |
周培龙 等: ""三角网至规则格网的快速生成方法及其应用"", 《测绘与空间地理信息》 * |
周培龙 等: ""三角网至规则格网的快速生成方法及其应用"", 《测绘与空间地理信息》, vol. 37, no. 10, 31 October 2014 (2014-10-31) * |
郑顺义 等: ""三角网约束下的层次匹配方法"", 《计算机辅助设计与图形学报》 * |
郑顺义 等: ""三角网约束下的层次匹配方法"", 《计算机辅助设计与图形学报》, vol. 26, no. 11, 30 November 2014 (2014-11-30) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581860A (zh) * | 2022-05-09 | 2022-06-03 | 武汉纺织大学 | 一种基于改进的YOLOv5模型的安全帽检测算法 |
Also Published As
Publication number | Publication date |
---|---|
CN114266830B (zh) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN111174799B (zh) | 地图构建方法及装置、计算机可读介质、终端设备 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN113819890B (zh) | 测距方法、装置、电子设备及存储介质 | |
JP2019527832A (ja) | 正確な位置特定およびマッピングのためのシステムおよび方法 | |
US20220292711A1 (en) | Pose estimation method and device, related equipment and storage medium | |
CN113989450A (zh) | 图像处理方法、装置、电子设备和介质 | |
US20210192689A1 (en) | Using maps comprising covariances in multi-resolution voxels | |
WO2024001969A1 (zh) | 一种图像处理方法、装置、存储介质及计算机程序产品 | |
CN111860072A (zh) | 泊车控制方法、装置、计算机设备及计算机可读存储介质 | |
KR20230008000A (ko) | 차선 및 특징 포인트에 기초한 위치확정방법 및 장치, 전자장비, 저장매체, 컴퓨터 프로그램 및 자율주행차량 | |
CN114266830B (zh) | 地下大空间高精度定位方法 | |
Zhang et al. | Online ground multitarget geolocation based on 3-D map construction using a UAV platform | |
WO2022246812A1 (zh) | 定位方法、装置、电子设备及存储介质 | |
CN114358133A (zh) | 一种基于语义辅助双目视觉slam检测回环帧的方法 | |
US20230401837A1 (en) | Method for training neural network model and method for generating image | |
KR102249381B1 (ko) | 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법 | |
CN115727854A (zh) | 一种基于bim结构信息的vslam定位方法 | |
CN109829939A (zh) | 一种缩小多视影像匹配同名像点搜索范围的方法 | |
KR20200032776A (ko) | 다중 센서 플랫폼 간 정보 융합을 위한 시스템 | |
CN114429515A (zh) | 一种点云地图构建方法、装置和设备 | |
Venable | Improving Real World Performance for Vision Navigation in a Flight Environment | |
WO2021127692A1 (en) | Maps comprising covariances in multi-resolution voxels | |
Venable | Improving Real-World Performance of Vision Aided Navigation in a Flight Environment | |
Bai et al. | Application of unmanned aerial vehicle multi-vision image 3D modeling in geological disasters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |