CN117392364A - 基于全景图像深度学习的位置感知系统 - Google Patents
基于全景图像深度学习的位置感知系统 Download PDFInfo
- Publication number
- CN117392364A CN117392364A CN202310927950.8A CN202310927950A CN117392364A CN 117392364 A CN117392364 A CN 117392364A CN 202310927950 A CN202310927950 A CN 202310927950A CN 117392364 A CN117392364 A CN 117392364A
- Authority
- CN
- China
- Prior art keywords
- panoramic
- image
- panoramic image
- region
- subsystem
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 230000008447 perception Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000013145 classification model Methods 0.000 claims abstract description 5
- 230000007613 environmental effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 2
- 238000005286 illumination Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 13
- 239000003245 coal Substances 0.000 abstract description 4
- 238000004891 communication Methods 0.000 abstract description 3
- 230000006854 communication Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 abstract description 3
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 238000003786 synthesis reaction Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 229920002148 Gellan gum Polymers 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于全景图像深度学习的位置感知系统,运用图像合成技术、数字图像处理技术和深度学习技术进行位置感知。所述位置感知系统包括全景摄像机、图像处理子系统、全景图像数据库、区域感知子系统、定位子系统。区域感知子系统将区域划分为多个区域,以全景图像数据库中的图片为样本,进行深度学习训练,得到区域感知分类模型。定位子系统基于区域子系统的分类结果,将图像处理子系统输出的全景图像特征点与该区域内图像的特征点进行比对,实现位置感知。本发明定位目标只需携带具有无线通信功能的全景摄像机,即可实现精确定位。系统结构简单、易于实施,可广泛应用于局部空间精确定位领域,如学校、医院、工厂、煤矿、地铁等,具有广阔的应用推广空间。
Description
技术领域
本发明涉及基于全景图像深度学习的位置感知系统,该方法涉及全景图像、深度学习、图像处理和空间定位技术。
背景技术
目前开阔空间移动目标定位主要以卫星定位为主,包括GPS、格勒纳斯、伽利略、北斗定位系统,除此以外,基于蜂窝移动通信系统、Wifi网络和无线传感器网络的定位技术也被应用。然而蜂窝移动通信系统定位一般只用于通信运营商的业务管理,不为用户直接提供个人定位服务;基于Wifi网络和无线传感器网络的定位只能实现局部区域范围内的定位。因此卫星定位仍然是人们生活中主要依赖的定位技术,但卫星定位需要在天空没有遮挡的条件下使用,使其应用的条件受到很大的限制;而且当卫星出现故障或卫星定位服务被关闭,则无法进行定位,会造成极大的影响。
建筑物、隧道、地铁站、煤矿井下等无法接收卫星信号的封闭环境多基于RFID卡识别、无线信号和图像进行定位。RFID卡识别定位技术利用射频信号进行非接触双向通信,射频卡和读卡器之间不需接触即可实现对目标的识别和位置监测。但是RFID卡识别定位技术属于区域定位技术,只能识别移动目标是否经过某区域,无法精确定位区域内移动物体的位置。无线信号定位技术主要包括基于信号衰减(RSSI)和基于到达时间的定位方式。由于无线信号在传输过程中易受封闭环境空间尺寸、形状、空间壁粗糙度等因素影响,无线信号衰减模型极为复杂。基于无线电信号传输时间的定位系统的定位精度高于RSSI定位系统,但无线电信号传输时间受多径效应、非视距传播时延、时钟同步、时钟计时误差等影响,在障碍物较多的环境中定位精度难以保证。此外,目前RFID、RSSI、飞行时间TOA、飞行时间差TDOA等定位方法均基于测距定位原理,需提前在空间内布置大量接收设备,部署成本高,维护困难。基于图像的定位主要包括基于标签的定位方式、基于语义分割的定位方式。基于标签的定位方式需要提前在空间内布置带有定位信息的标签,以获取更多的环境信息,便于定位,但是该方法需要提前在环境内部署大量标签,部署成本高;基于语义分割的定位方法需提前标注环境中带有定位信息的物体,并记录其坐标。当识别到三个以上的标注物体时,根据物体的坐标与摄像机内参,建立坐标矩阵解算出图像的位置坐标,但是该方法需要对图像进行大量标注,坐标计算较为繁琐。
因此,一种适合煤矿等密闭空间环境的、简单有效、部署成本低且定位精度高的定位系统,同时可实现包括目标静止条件下的目标朝向的三维精确定位系统十分必要。
发明内容
相较于单目摄像机,双目摄像机可获得更多的环境信息,其中全景摄像机通过图片拼接,可获得360°的环境图像,具有更多的图像特征。本发明结合全景摄像机、深度学习和数字图像处理技术,提出了一种基于全景图像深度学习的位置感知系统,实现了区域确定和局部空间精确定位。系统包括全景摄像机、图像处理子系统、全景图像数据库、区域感知子系统、定位子系统;所述全景摄像机具有前后两个鱼眼镜头;所述图像处理子系统将摄像机在同一位置采集的不同视角的图像进行拼接,生成全景图像;所述全景图像数据库由不同视点的全景图像及其坐标构成,全景图像包括平面全景图像和球型全景图像;所述区域感知子系统将环境划分为多个区域,以全景图像为样本,进行深度学习训练,得到区域感知分类模型;所述定位子系统基于区域感知子系统的分类结果,将图像处理子系统输出的全景图像特征点与该区域内图像的特征点进行比对,实现位置感知。
所述系统的图像处理步骤为:
(1)特征点匹配;标注前后两个鱼眼镜头拍摄图像的感兴趣区(ROI),选取其中一幅图像ROI的待处理点,计算该点到另一幅图片ROI内各点的欧氏距离,若最小欧氏距离和次小欧式距离的比值小于设定的阈值,则该点与距其欧氏距离最小的点完成粗匹配,对于未能粗匹配的点,使用RANSAC算法再次匹配;
(2)像素融合;对两幅待拼接图像ROI区域的像素值进行加权平均,确定拼接点的像素值,以消除前后两个鱼眼镜头因环境光照不同而产生的亮度差异,提高拼接区域之间的相关性。
所述系统的全景图像数据库获取方式包括:
(1)固定机位获取,将全景摄像机固定在某一位置,记录该位置的在环境中的坐标,拍摄该位置的全景视频,通过提取视频图像帧,获得全景图像;
(2)移动机位获取,将全景摄像机放置在移动物上,移动物沿单一方向运动,拍摄环境全景视频,通过计算,获得全景摄像机的位置信息,通过提取视频图像帧,获得全景图像。
所述系统的区域感知子系统训练步骤为:
(1)将待定位环境划分为多个空间区域,记录各区域坐标范围,标注全景图像数据库中全景图像的所在区域;
(2)将步骤(1)中的每个区域作为一个类,将每个区域中的全景图像作为深度学习的数据集,送入分类网络进行训练;
(3)重复步骤(2),得到区域感知模型。
所述系统的区域感知子系统的环境感知步骤为:
(1)全景摄像机将采集的全景图像输入到权利要求4中训练得到的区域感知模型,区域感知模型输出一个张量,作为该图片的特征描述;
(2)将该图片的特征描述与各区域图像的特征描述进行比对,将匹配度最高的区域作为该图像所在区域;
(3)将区域感知结果传送至定位子系统。
所述系统的区域定位子系统的定位步骤为:
(1)全景摄像机将采集的全景图像输入到权利要求4中训练得到的区域感知模型,区域感知模型输出一个张量,作为该图片的特征描述;
(2)将该图片的特征描述与各区域图像的特征描述进行比对,将匹配度最高的区域作为该图像所在区域;
(3)将区域感知结果传送至定位子系统。
所述定位子系统的定位步骤为:
(1)根据区域匹配结果,选取该区域内的全景图像作为待匹配对象;
(2)提取待定位全景图像的特征点,根据平面映射关系,计算待定位全景图像与该区域内各个全景图像特征点的匹配数量;
(3)选取区域内特征点匹配最多的全景图像,作为定位结果。
1.所述的位置感知系统进一步包括:位置感知系统的布置平台包包裹单片机、FPGA、DSP。
2.所述的位置感知系统进一步包括:图像处理子系统计算特征点X(x1,x2,…xn)与特征点Y(y1,y2,…yn)之间的欧式距离融合区域的像素值Pixel计算公式为:Pixel=K·PixelF+(1-K)·PixelB,其中PixelF和PixelB分别表示前、后鱼眼镜头图像待拼接区域的像素值,K=SF/(SF+SB),SF、SB分别表示前、后鱼眼镜头图像到待拼接区域点的欧氏距离。
3.所述的位置感知系统进一步包括:全景图像数据库中的全景图像包括平面全景图像和球型全景图像;平面全景图像通过拼接可得到球型全景图像。
4.所述的位置感知系统进一步包括:全景数据库的获取方式(1)采集的全景图像设定在高度为h的水平面上,以最小间隔为gapmin进行采集;方式(2)中移动物以速度v匀速运动,根据图像所处视频时长t,计算其移动距离d=v·t,得到全景图像的坐标。
5.所述的位置感知系统进一步包括:当区域感知子系统感知步骤(2)匹配度最高的区域为多个,则将步骤(2)的结果送入定位子系统进行特征点匹配,将特征点匹配度最高的作为定位结果。
6.所述的位置感知系统进一步包括:特征点匹配的方法包括SFIT、ORB、BING、Geodesc算法。
本发明达到的有益效果:本发明结合图像合成技术、数字图像处理技术和深度学习技术进行位置感知,定位目标只需携带具有无线通信功能的全景摄像机,即可实现精确定位。系统结构简单、易于实施,可广泛应用于局部空间精确定位领域,如学校、医院、工厂、煤矿、地铁等,具有广阔的应用推广空间。
附图说明
图1基于全景图像深度学习的位置感知系统组成示意图。
图2环境感知系统深度学习流程示意图。
图3环境区域划分示例图。
图4定位子系统工作流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅为本发明一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为所述基于全景图像深度学习的位置感知系统流程图。如图1所示,本实施例中的所述位置感知系统包括离线部分(全景摄像机(101)、全景图像数据库(102)、区域感知子系统(103)、监控终端(104))和在线部分(全景摄像机(105)、图像处理子系统(106)(107)、定位子系统):
1.全景摄像机(101)(105),拍摄全景视频,用于生成全景图像数据库和定位。
2.全景图像数据库(102),提取全景摄像机(101)拍摄的视频图像帧,记录每张图片的坐标信息,生成全景图像数据库。
3.区域感知子系统(103),利用全景图像数据库的图片训练区域分类模型,并将感知模型传送至定位子系统。将环境划分为多个区域,确定各个区域的坐标范围,对图像数据集内的图片进行区域标注;使用分类网络训练区域感知模型,并将其传送至定位子系统。
4.监控终端(104)主要负责区域感知子系统、全景摄像机、定位子系统的设备管理,管理人员可通过监控终端访问以上设备,并对其设备参数和存储数据进行管理。如提取视频图像帧、对全景图像数据库中的图片进行标注、删改等。根据系统应用需要,可在监控终端安装移动目标监控软件,进行全景摄像机采集图像的显示,并对移动目标的位置进行监控。
5.图像拼接(106)与图像预处理,对全景摄像机采集的图像进行处理;
6.定位子系统(108),其功能是定位图像的具体位置;接收环境感知模型,将预处理后的图片输入感知模型,确定其所属区域;然后将图片与所属区域内的图片进行特征点匹配,选取匹配度最高的图片,作为定位结果。
环境感知子系统深度学习流程如2所示,包括:
1.(201)测量环境的三维地理信息,建立坐标系,将设定空间划分为多个空间区域;
2.(202)对全景图像数据库中的全景图像进行标注,标注内容包括图像所在区域、坐标;
3.(203)判定标注的样本量是否达标,如达到则执行(204),剩余样本作为测试集,否则返回执行(203);
4.(204)以(201)确定的区域为单位,将区域中的图片作为样本进行深度学习训练,此示例中,深度学习网络采用GoogLeNet卷积神经网络;
5.(205)判定训练精度是否达标,如达标,则执行(206);如未达标,则返回(206),优化网络参数进一步;
6.(206)将所有区域的图像分类识别模型和所有类对应的位置数据传送给定位子系统。
图3为区域划分示例图。区域可采取不均匀划分法,本例的9个区域为长宽不等的矩形区域,区域内以gapmin为边长的正方形网格采集图像数据。全景摄像机的高度为h,定位精度为gapmin。
所述系统位置感知流程如图4所示,包括:
1.(401)全景摄像机采集环境图像。
2.(402)区域感知模型接收预处理的图像,处理方法包括:滤波、边缘增强、亮度调整、对比度调整、色相调整和饱和度调整。
3.(403)将图像输入区域感知模型进行卷积处理,将输出特征表述描述与各区域的特征描述进行对比。
4.(404)选取匹配度最高的区域作为匹配结果,当匹配对结果不唯一时,则重新送入分类模型,再次匹配。
5.(406)定位子系统根据(405)传送的分类结果,将待匹配图像和其所在区域的全景图像进行特征点匹配,选取匹配度最高的作为定位结果。
6.(408)定位服务器根据(407)得到的匹配结果确定全景摄像机所在位置。
7.(409)定位子系统将(408)得到的全景摄像机的位置传输给需位置监控服务的监控终端,或提供位置导航服务的智能设备,并返回(401)。
Claims (14)
1.基于全景图像深度学习的位置感知系统,其特征在于:系统包括全景摄像机、图像处理子系统、全景图像数据库、区域感知子系统、定位子系统;所述全景摄像机为双鱼眼相机,具有前后两个鱼眼镜头;所述图像处理子系统对摄像机前后两个鱼眼镜头采集的图像进行拼接,生成全景图像;所述全景图像数据库由不同位置的全景图像及其坐标构成,全景图像包括平面全景图像和球型全景图像;所述区域感知子系统将环境划分为多个区域,以全景图像为样本,进行深度学习训练,得到区域感知分类模型;所述定位子系统基于区域感知子系统的分类结果,将待定位的全景图像特征点与该区域内图像的特征点进行比对,实现位置感知。
2.如权利要求1所述的位置感知系统,其特征在于:图像处理的步骤为:
(1)特征点匹配;标注前后两个鱼眼镜头拍摄图像的感兴趣区(ROI),选取其中一幅图像ROI的待处理点,计算该点到另一幅图片ROI内各点的欧氏距离,若最小欧氏距离和次小欧式距离的比值小于设定的阈值,则该点与距其欧氏距离最小的点完成粗匹配,对于未能粗匹配的点,使用RANSAC算法再次匹配;
(2)像素融合;对两幅待拼接图像ROI区域的像素值进行加权平均,确定拼接点的像素值,以消除前后两个鱼眼镜头因环境光照不同而产生的亮度差异,提高拼接区域之间的相关性。
3.如权利要求1所述的位置感知系统,其特征在于:全景图像数据库中的全景图像获取方式包括:固定机位获取,将全景摄像机固定在某一位置,记录该位置的在环境中的坐标,拍摄该位置的全景视频,通过提取视频图像帧,获得全景图像。
4.如权利要求1所述的位置感知系统,其特征在于:全景图像数据库中的全景图像获取方式包括:移动机位获取,将全景摄像机放置在移动物上,移动物沿单一方向运动,拍摄环境全景视频,通过计算,获得全景摄像机的位置信息,通过提取视频图像帧,获得全景图像。
5.如权利要求1所述的位置感知系统,其特征在于:区域感知子系统的训练步骤为:
(1)将待定位环境划分为多个空间区域,记录各区域坐标范围,标注全景图像数据库中全景图像的所在区域;
(2)将步骤(1)中的每个区域作为一个类,以每个区域中的全景图像作为深度学习的数据集,送入分类网络进行训练;
(3)重复步骤(2),得到区域感知模型。
6.如权利要求1所述的位置感知系统,其特征在于:区域感知模型的环境感知步骤为:
(1)全景摄像机将采集的全景图像输入到权利要求4中训练得到的区域感知模型,区域感知模型输出一个张量,作为该图片的特征描述;
(2)将该图片的特征描述与各区域图像的特征描述进行比对,将匹配度最高的区域作为该图像所在区域;
(3)将区域感知结果传送至定位子系统。
7.如权利要求1所述的位置感知系统,其特征在于:定位子系统的定位步骤为:
(1)根据权利要求5步骤(2)中得到的区域匹配结果,选取该区域内的全景图像作为待匹配对象;
(2)提取待定位全景图像的特征点,根据平面映射关系,计算待定位全景图像与该区域内各个全景图像特征点的匹配数量;
(3)选取区域内特征点匹配最多的全景图像,作为定位结果。
8.如权利要求1所述的位置感知系统,其特征在于:位置感知系统的部署平台包括:单片机、FPGA、DSP。
9.如权利要求2所述的位置感知系统,其特征在于:特征点X(x1,x2,…xn)与特征点Y(y1,y2,…yn)之间的欧式距离融合区域的像素值Pixel计算公式为:Pixel=K·PixelF+(1-K)·PixelB,其中PixelF和PixelB分别表示前、后鱼眼镜头图像待拼接区域的像素值,K=SF/(SF+SB),SF、SB分别表示前、后鱼眼镜头图像到待拼接区域点的欧氏距离。
10.如权利要求3所述的位置感知系统,其特征在于:全景图像数据库中的全景图像包括平面全景图像和球型全景图像;平面全景图像通过拼接可得到球型全景图像。
11.如权利要求3所述的位置感知系统,其特征在于:采集的全景图像设定在高度为h的水平面上,以最小间隔为gapmin进行采集。
12.如权利要求4所述的位置感知系统,其特征在于:移动物以速度v匀速运动,根据图像所处视频时长t,计算其移动距离d=v·t,得到全景图像的坐标。
13.如权利要求6所述的位置感知系统,其特征在于:步骤(2)匹配度最高的区域为多个,则将步骤(2)的结果送入定位子系统进行特征点匹配,将特征点匹配度最高的作为定位结果。
14.如权利要求7所述的位置感知系统,其特征在于:步骤(2)的特征点匹配可使用SFIT、ORB、BING、Geodesc算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310927950.8A CN117392364A (zh) | 2023-07-26 | 2023-07-26 | 基于全景图像深度学习的位置感知系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310927950.8A CN117392364A (zh) | 2023-07-26 | 2023-07-26 | 基于全景图像深度学习的位置感知系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117392364A true CN117392364A (zh) | 2024-01-12 |
Family
ID=89439857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310927950.8A Pending CN117392364A (zh) | 2023-07-26 | 2023-07-26 | 基于全景图像深度学习的位置感知系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117392364A (zh) |
-
2023
- 2023-07-26 CN CN202310927950.8A patent/CN117392364A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3469306B1 (en) | Geometric matching in visual navigation systems | |
KR100906974B1 (ko) | 카메라를 이용한 위치 인식 장치 및 그 방법 | |
US20170337701A1 (en) | Method and system for 3d capture based on structure from motion with simplified pose detection | |
US20130243250A1 (en) | Location of image capture device and object features in a captured image | |
CN103162682B (zh) | 基于混合现实的室内路径导航方法 | |
CN111028358B (zh) | 室内环境的增强现实显示方法、装置及终端设备 | |
US20160267326A1 (en) | Image abstraction system | |
EP2709058B1 (en) | Calibration of camera-based surveillance systems | |
CN109357679B (zh) | 一种基于显著性特征识别的室内定位方法 | |
CN108711172B (zh) | 基于细粒度分类的无人机识别与定位方法 | |
CN109903308B (zh) | 用于获取信息的方法及装置 | |
CN114185073A (zh) | 一种位姿显示方法、装置及系统 | |
CN112422653A (zh) | 基于位置服务的场景信息推送方法、系统、存储介质及设备 | |
US11314975B2 (en) | Object identification in data relating to signals that are not human perceptible | |
CN209530065U (zh) | 一种基于图像的坐标定位装置 | |
CN117665869B (zh) | 基于信号特征与机器学习的卫星导航非视距观测检测方法 | |
CN112348891A (zh) | 一种图像检测及定位方法、装置、存储介质及电子装置 | |
CN115578539B (zh) | 室内空间高精度视觉位置定位方法、终端及存储介质 | |
Baeck et al. | Drone based near real-time human detection with geographic localization | |
CN114513746B (zh) | 融合三重视觉匹配模型和多基站回归模型的室内定位方法 | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
CN109612455A (zh) | 一种室内定位方法及系统 | |
KR102407802B1 (ko) | 인공신경망 학습 기반의 실내외 3차원 좌표 및 방위 추정 장치 | |
CN117392364A (zh) | 基于全景图像深度学习的位置感知系统 | |
Lee et al. | A feasibility study on smartphone localization using image registration with segmented 3d building models based on multi-material classes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |