CN116972880A - 定位算法的精度检测装置 - Google Patents
定位算法的精度检测装置 Download PDFInfo
- Publication number
- CN116972880A CN116972880A CN202310890176.8A CN202310890176A CN116972880A CN 116972880 A CN116972880 A CN 116972880A CN 202310890176 A CN202310890176 A CN 202310890176A CN 116972880 A CN116972880 A CN 116972880A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- real
- cloud image
- time
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 135
- 238000001514 detection method Methods 0.000 title claims abstract description 75
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000001914 filtration Methods 0.000 claims description 38
- 238000010276 construction Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 description 20
- 238000004590 computer program Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 6
- 238000012216 screening Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/23—Testing, monitoring, correcting or calibrating of receiver elements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/35—Constructional details or hardware or software details of the signal processing chain
- G01S19/37—Hardware or software details of the signal processing chain
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请涉及一种定位算法的精度检测装置,所述装置包括:图像获取模块,用于获取运动对象的实时点云图像;实时定位模块,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述运动对象的实时定位数据;离线定位模块,用于采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据;精度计算模块,用于将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度。采用将离线定位数据作为实时定位数据的参考值,实现了对实时定位算法的精度的有效检测。
Description
本申请是申请号为201910204805.0的中国申请的分案申请,前述内容通过引用的方式引用在本申请文件中。
技术领域
本申请涉及无人驾驶技术领域,特别是涉及一种定位算法的精度检测装置。
背景技术
随着无人驾驶开发领域的发展,定位模块用于获得无人驾驶车辆自身在地图中的位置信息,其中,定位算法可结合其他辅助算法实现定位模块的主要功能。
然而,目前的定位算法由于无法获取到无人驾驶车辆的位置参考值,评估定位算法精度时,得到的误差综合了构建地图的误差和定位算法的误差,因此无法对本车的定位算法进行精度检测。
发明内容
基于此,有必要针对上述技术问题,提供一种定位算法的精度检测方法、装置、计算机设备和存储介质。
一种定位算法的精度检测方法,所述方法包括:
获取运动对象的实时点云图像;
采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述运动对象的实时定位数据;
采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据;所述离线定位算法的定位精度大于所述实时定位算法的定位精度;
将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度。
在其中一个实施例中,所述点云地图的构建方式,包括:
获取源点云图像,进行目标检测,得到源障碍物点云图像;
将所述源点云图像中的源障碍物点云图像滤除,根据所述滤除处理后的源点云图像构建点云地图。
在其中一个实施例中,所述获取源点云图像,进行目标检测,得到源障碍物点云图像,包括:
获取源点云图像,将所述源点云图像输入到训练好的目标检测模型,得到源障碍物点云图像;所述目标检测模型为根据包含有障碍物的点云样本图像训练得到的。
在其中一个实施例中,所述采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述运动对象的实时定位数据,包括:
采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述实时点云图像对应的源点云图像;
将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象在所述点云地图中的实时定位数据。
在其中一个实施例中,所述采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据,包括:
获取实时点云图像,将所述实时点云图像输入到离线定位算法中训练好的目标检测模型,得到目标障碍物点云图像;
将所述目标障碍物点云图像从所述实时点云图像中滤除,得到滤除处理后的实时点云图像;
将所述滤除处理后的实时点云图像输入到离线定位算法中训练好的匹配模型,得到与所述滤除处理后的实时点云图像对应的源点云图像;所述匹配模型为根据实时点云图像和对应的源点云图像训练得到的;
将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象的离线定位数据。
在其中一个实施例中,所述将所述滤除处理后的实时点云图像输入到训练好的匹配模型,计算所述滤除处理后的实时点云图像的匹配值,得到与所述滤除处理后的实时点云图像对应的源点云图像,包括:
根据所述滤除处理后的各个实时点云图像的匹配值的大小,筛选出所述匹配值最大的实时点云图像,将所述匹配值最大的实时点云图像对应的源点云图像作为匹配模型的输出。
在其中一个实施例中,所述匹配模型中静态物体点云的匹配值所对应的权重,高于动态物体点云的匹配值所对应的权重。
在其中一个实施例中,所述将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度,包括:
获取所述实时定位数据与所述对应离线定位数据;
计算各个所述实时定位数据与所述对应离线定位数据的差值;
计算所述各个差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述定位算法的精度。
一种定位算法的精度检测装置,所述装置包括:
图像获取模块,用于获取运动对象的实时点云图像;
实时定位模块,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述运动对象的实时定位数据;
离线定位模块,用于采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据;所述离线定位算法的定位精度大于所述实时定位算法的定位精度;
精度计算模块,用于将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度。
在其中一个实施例中,所述装置还包括地图构建模块;所述地图构建模块包括:
第一目标检测单元,用于获取源点云图像,进行目标检测,得到源障碍物点云图像;
第一障碍滤除单元,用于将所述源点云图像中的源障碍物点云图像滤除;
构建单元,用于根据所述滤除处理后的源点云图像构建点云地图。
在其中一个实施例中,所述目标检测单元还用于获取源点云图像,将所述源点云图像输入到训练好的目标检测模型,得到源障碍物点云图像;所述目标检测模型为根据包含有障碍物的点云样本图像训练得到的。
在其中一个实施例中,所述实时定位模块,包括:
图像匹配单元,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述实时点云图像对应的源点云图像;
数据获取单元,用于将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象在所述点云地图中的实时定位数据。
在其中一个实施例中,所述离线定位模块,包括:
第二目标检测单元,用于获取实时点云图像,将所述实时点云图像输入到离线定位算法中训练好的目标检测模型,得到目标障碍物点云图像;
第二障碍滤除单元,用于将所述目标障碍物点云图像从所述实时点云图像中滤除,得到滤除处理后的实时点云图像;
图像匹配单元,用于将所述滤除处理后的实时点云图像输入到离线定位算法中训练好的匹配模型,得到与所述滤除处理后的实时点云图像对应的源点云图像,匹配模型为根据实时点云图像和对应的源点云图像训练得到的;
数据获取单元,用于将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象的离线定位数据。
在其中一个实施例中,所述图像匹配单元还用于根据所述滤除处理后的各个实时点云图像的匹配值的大小,筛选出所述匹配值最大的实时点云图像,将所述匹配值最大的实时点云图像对应的源点云图像作为匹配模型的输出。
在其中一个实施例中,所述图像匹配单元还用于设置匹配模型中静态物体点云的匹配值所对应的权重,高于动态物体点云的匹配值所对应的权重。
在其中一个实施例中,所述精度计算模块包括:
数据获取单元,用于获取所述实时定位数据与所述对应离线定位数据;
差值计算单元,用于计算各个所述实时定位数据与所述对应离线定位数据的差值;
精度确定单元,用于计算所述各个的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述定位算法的精度。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述定位算法的精度检测步骤:
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述定位算法的精度检测步骤:
上述定位算法的精度检测方法、装置、计算机设备和存储介质,通过实时定位和离线定位,将离线定位数据作为实时定位数据的参考值,根据该参考值和对应的实时定位数据计算精度,实现了对运动对象的定位算法的精度检测。此外,采用更高精度的离线定位算法获取运动对象的离线定位数据,使得定位算法的精度检测更准确。
附图说明
图1为一个实施例中定位算法的精度检测方法的应用环境图;
图2为一个实施例中定位算法的精度检测方法的流程示意图;
图3为一个实施例中构建点云地图方式的流程示意图;
图4为一个实施例中获取实时定位数据步骤的流程示意图;
图5为一个实施例中获取离线定位数据步骤的流程示意图;
图6为一个实施例中定位算法精度计算步骤的流程示意图;
图7为另一个实施例中定位算法的精度检测方法的流程示意图;
图8为一个实施例中定位算法的精度检测装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中定位算法的精度检测的应用环境图。本申请实施例提供的定位算法的精度检测方法,可以应用于如图1所示的应用环境中。其中,计算机设备100可以是台式终端或移动终端,移动终端具体可以是手机、平板电脑、笔记本电脑、穿戴式设备、个人数字助理等。计算机设备100也可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
图2为一个实施例中一种定位算法的精度检测方法的流程示意图。如图2所示,提供了一种定位算法的精度检测方法,以该方法应用于图1中的计算机设备100为例进行说明,包括以下步骤:
步骤202,获取运动对象的实时点云图像。
其中,运动对象可指需获取自身定位数据的移动中的设备。实时点云图像是指运动对象根据实时定位算法获取的被拍摄场景的当前帧图像。其中,点云图像是指包含被拍摄场景的深度信息的图像。点云图像可为直接根据点云数据生成的图像,也可为根据深度摄像头获取的深度图像再进行坐标转换得到的图像。点云数据是指通过激光雷达扫描被拍摄场景获取的激光点信息。深度图像是指将深度摄像头到被拍摄场景中各点的深度值作为像素值的图像。
具体地,计算机设备100根据运动对象的实时定位算法获取被拍摄场景的当前帧图像,将该当前帧图像作为实时点云图像。
可选地,运动对象可为无人驾驶车辆、无人机、移动机器人、移动视频监测装置等。
可选地,实时点云图像可为根据点云数据生成的三维图像,也可为根据深度摄像头获取的深度图像再进行坐标转换得到的三维图像。
步骤204,采用实时定位算法,对该实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到该运动对象的实时定位数据。
其中,实时定位算法是指实时获取运动对象自身定位数据的算法,本实施例中为需检测精度的算法。实时定位数据可为包括运动对象实时定位信息的数据。其中,源点云图像可为运动对象预先获取的实时点云图像,点云地图可指将源点云图像逐帧的叠加形成的地图。
实时定位数据可包括GPS(Global Positioning System,全球定位系统)数据、GNSS(Global Navigation Satellite System,全球导航卫星系统)数据,还可包括IMU(Inertial measurement unit,为惯性测量装置)数据。其中,IMU用于测量物体在三维空间中的角速度和加速度。具体地,计算机设备100获取已构建的点云地图中的源点云图像,采用实时定位算法,将实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到已构建的点云地图中与该实时点云图像对应的源点云图像,获取该源点云图像的定位信息,将该定位信息作为运动对象的实时定位数据。其中,匹配是指根据图像特征点的对比分析,找到实时点云图像在已构建的点云地图中的对应的源点云图像。
步骤206,采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据;所述离线定位算法的定位精度大于所述实时定位算法的定位精度。
其中,离线定位算法可为定位精度大于实时定位精度的算法。离线定位数据可为运动对象采用离线定位算法得到的定位信息,可包括GPS数据、GNSS数据,还可包括IMU数据。
其中,IMU用于测量物体在三维空间中的角速度和加速度。根据同一帧实时点云图像得到的实时定位数据和离线定位数据一一对应,例如,对于根据同一帧实时图像得到的实时点位数据和离线定位数据,实时定位数据中被测物体的角速度与离线定位数据中被测物体的角速度对应,实时定位数据中被测物体的加速度与离线定位数据中被测物体的加速度对应。
具体地,计算机设备100获取实时点云图像,对该实时点云图像进行目标检测以滤除实时图像中的障碍物,将滤除处理后的实时点云图像与点云地图中的源点云图像进行匹配,得到已构建的点云地图中与该实时点云图像对应的源点云图像,获取该源点云图像的定位信息,将该定位信息作为运动对象的离线定位数据。
在一实施例中,由于获取的实时点云图像中存在较多障碍物点云图像,在实时点云图像与点云地图中的源点云图像对比时导致出现较大匹配误差,因此,可通过离线处理实时点云图像,将其中障碍物点云图像滤除,得到滤除处理后的实时点云图像。具体地,所述目标检测方式可为将实时点云图像输入到训练好的目标检测模型,进行障碍物检测和障碍物滤除,得到滤除处理后的实时点云图像。
在另一实施例中,由于采集的实时点云图像可为局部点云图像,拍摄角度不完整,或者存在旋转错位,平移错位等情况,需要离线对采集的实时点云图像进行配准,将各个角度下的点云图像转换到同一坐标系下拼接成一个完整的点云图像。配准的方式可为ICP算法(Iterative Closest Point,迭代最近点)、NDT算法(Normal DistributionsTransform,正态分布变换)等。具体地,计算机设备100获取多个实时点云图像,采用配准算法,得到配准后的实时点云图像,将配准后的实时点云图像与点云地图中的源点云图像进行匹配,得到已构建的点云地图中与该实时点云图像对应的源点云图像,获取该源点云图像的定位信息,将该定位信息作为运动对象的离线定位数据。
步骤208,将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度参考值。
其中,参考值是指变量的无法直接获取的真实值,一般约定一个参考值作为变量的真实值,本实施例约定离线定位数据作为实时定位数据的参考值。对应的,离线定位的GPS数据作为实时定位的GPS数据的参考值;离线定位的GNSS数据作为实时定位的GNSS数据的参考值;离线定位的IMU角速度作为实时定位中IMU角速度的参考值;离线定位的IMU加速度作为实时定位中IMU加速度的参考值。
其中,定位算法的精度可指定位算法测得的定位数据的精确度。该定位算法的精度可根据计算机设备100获取的离线定位数据和实时定位数据计算差值得到。上述定位算法的精度检测方法中,通过实时定位和离线定位,将离线定位数据作为实时定位数据的参考值,根据离线定位数据和实时定位数据计算精度,实现了对运动对象的定位算法的精度检测。
在一实施例中,图3为一个实施例中一种构建点云地图方式的流程示意图。如图3所示,提供了一种构建点云地图的方法,包括以下步骤:
步骤302,获取源点云图像,进行目标检测,得到源障碍物点云图像。
其中,源点云图像可为测试车辆预先获取的实时点云图像,源障碍物点云图像可为源点云图像中障碍物的点云图像,可通过对源点云图像进行障碍物特征点的对比分析得到。
在一实施例中,所述获取源点云图像,进行目标检测,得到源障碍物点云图像,包括:获取源点云图像,将所述源点云图像输入到训练好的目标检测模型,得到源障碍物点云图像;所述目标检测模型为根据包含有障碍物的点云样本图像训练得到的。其中,点云样本图像可为预先构建的包含障碍物点云图像的样本图像。
步骤304,将所述源点云图像中的源障碍物点云图像滤除,根据所述滤除处理后的源点云图像构建点云地图。
其中,点云地图可为将不同位置的点云进行拼接得到的地图,拼接可指将扫描的相邻的点云数据拼接在一起,本实施例中可指将源点云图像逐帧地拼接。拼接采用的算法可为ICP算法,也可采用全局匹配算法或局部匹配算法。
可选地,点云地图的构建还可采用多视图三维重建技术,考虑不同角度观测导致的误差,将不同角度拍摄的源点云图像进行优化,根据优化后的源点云图像得到点云地图。
在一实施例中,点云地图的构建方式包括:获取源点云图像,对点云图像进行筛选,将筛选后的源点云图像逐帧叠加得到点云地图。在该对点云图像进行筛选之前可通过目标检测模型对源点云图像中的障碍物进行检测。该对点云图像进行筛选可为根据源点云图像的障碍物的数量对源点云图像进行筛选,以得到图像中障碍物小于阈值的源点云图像。该对点云图像进行筛选可采用双边滤波、高斯滤波、条件滤波、直通滤波、随机采样一致性滤波等滤波方式。
上述点云地图构建步骤中,通过对源点云图像进行目标检测得到源障碍物点云图像,再将源障碍物点云图像从源点云图像中滤除,得到滤除处理后的源点云图像,根据源点云图像逐帧叠加得到点云地图,实现了点云地图的构建,并且构建的点云地图中包含的障碍物点云图像较少,便于实时点云图像与点云地图中的源点云图像进行匹配。
在一实施例中,图4为一种获取实时定位数据步骤的流程示意图,如图4所示,步骤204包括:
步骤402,采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述实时点云图像对应的源点云图像。
其中,匹配是指根据实时点云图像特征点与点云地图中所有源点云图像的特征点进行对比分析,找到与实时点云图像相似度最高或图像特征点重合度最高的源点云图像,作为实时点云图像对应的源点云图像。步骤404,将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象在所述点云地图中的实时定位数据。
其中,实时定位数据可包括GPS数据、GNSS数据,还可包括IMU数据。
上述获取实时定位数据的步骤中,采用实时定位算法,将实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到已构建的点云地图中与该实时点云图像对应的源点云图像,将该源点云图像的定位信息,作为运动对象的实时定位数据,从而实现了对运动对象的实时定位数据的获取。
在一实施例中,图5为一种获取离线定位数据步骤的流程示意图所示,如图5所示步骤206包括:
步骤502,获取实时点云图像,将所述实时点云图像输入到离线定位算法中训练好的目标检测模型,得到目标障碍物点云图像。
其中,目标检测模型可为已训练好的用于检测目标障碍物的模型,可为根据源障碍物点云图像的特征点进行训练的神经网络模型。
步骤504,将所述目标障碍物点云图像从所述实时点云图像中滤除,得到滤除处理后的实时点云图像。
其中,目标障碍物点云图像可为实时点云图像中障碍物的点云图像,可通过对实时点云图像进行障碍物特征点的对比分析得到。
步骤506,将所述滤除处理后的实时点云图像输入到离线定位算法中训练好的匹配模型,得到与所述滤除处理后的实时点云图像对应的源点云图像;所述匹配模型为根据实时点云图像和对应的源点云图像训练得到的。
其中,匹配模型可结合样本点云图像的特征点进行训练。
步骤508,将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象的离线定位数据。
上述获取离线定位数据步骤中,通过获取实时点云图像,对该实时点云图像进行目标检测以滤除实时图像中的障碍物,将滤除处理后的实时点云图像与点云地图中的源点云图像进行匹配,得到已构建的点云地图中与该实时点云图像对应的源点云图像,获取该源点云图像的定位信息,将该定位信息作为运动对象的离线定位数据,从而实现了对离线定位数据的获取。
在另一实施例中,所述将所述滤除处理后的实时点云图像输入到离线定位算法中训练好的匹配模型,得到与所述滤除处理后的实时点云图像对应的源点云图像,包括:根据所述滤除处理后的各个实时点云图像的匹配值的大小,筛选出所述匹配值最大的实时点云图像,将所述匹配值最大的实时点云图像对应的源点云图像作为匹配模型的输出。其中,匹配值可反映所述滤除处理后的实时点云图像与所述对应的源点云图像的相似度。
可选地,匹配值可为匹配分数值,可为图像相似度百分比,还可为图像特征点的重合概率值。
在另一实施例中,匹配模型中静态物体点云的匹配值所对应的权重,高于动态物体点云的匹配值所对应的权重。其中,静态物体点云是指世界坐标系下静止的物体点云,动态物体点云是指世界坐标系下运动的物体点云。
在一实施例中,图6为一种定位算法精度计算步骤的流程示意图,如图6所示,步骤208包括:
步骤602,获取所述实时定位数据与所述对应离线定位数据。
其中,实时定位数据与其对应的离线定位数据根据同一帧实时点云图像处理得到。
步骤604,计算各个所述实时定位数据与所述对应离线定位数据的差值。
其中,至少一组实时定位数据与其对应的离线定位数据作为计算样本,进行差值计算,得到至少一个差值。
步骤606,计算所述各个差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述定位算法的精度。
可选地,各个差值可进行平均值计算,将该平均值作为定位算法的精度;也可进行加权平均值计算,将该加权平均值作为定位算法的精度;也可进行中值计算,将该中值作为定位算法的精度;还可将该平均值、加权平均值、中值中的一个或多个作为定位算法的精度。
上述计算精度步骤中,通过计算离线定位数据和实时定位数据的差值,根据该差值确定实时定位算法的精度,从而实现了定位算法的精度计算。
在另一实施例中,图7为一种定位算法的精度检测方法的流程示意图,如图7所示,其方法步骤包括:
步骤702,构建点云地图,通过目标检测模块滤除点云地图中的源障碍物点云图像。
其中,点云地图可为根据激光点云数据建成的地图,点云地图还包括运动对象的速度数据、GPS数据、GNSS数据、IMU数据。其中,运动对象在本实施例中为测试车辆,通过获取源点云图像构建点云地图。其中,源障碍物点云图像可为源点云图像中障碍物的点云图像,障碍物为不属于地图架构的物体。
具体地,计算机设备100采用目标检测模型将障碍物检测出来,得到每个源障碍物点云图像的大小和位置,将这部分点云从源点云图像中扣除,再利用滤除后的点云图像进行地图构建。
步骤704,采用实时定位算法,得到实时定位数据,并将实时定位数据进行存储。
其中,实时定位算法可为运动对象获取自身在地图中的位置信息的算法,实时定位数据以文档文件的形式存储在硬盘或其他存储介质中。
步骤706,对实时点云图像进行目标障碍物滤除,得到滤除处理后的当前帧图像。
其中,目标障碍物为点云地图中需滤除的易造成图像匹配误差的非建筑类物体。目标障碍物点云图像为实时点云图像中障碍物的点云图像。
具体地,计算机设备100采用目标检测模型将目标障碍物检测出来,得到每个目标障碍物点云图像的大小和位置,将这部分点云从源点云图像中扣除,得到滤除处理后的当前帧图像。
步骤708,采用改造后的NDT匹配算法作为离线定位算法,对滤除处理后的当前帧图像进行离线定位,得到离线定位数据。
其中,NDT(Normal Distributions Transform,正态分布变换)匹配算法是指对输入的点云图像进行坐标变换以进行匹配的算法。改造NDT匹配算法的方式包括:配置NDT匹配算法中对各角度实时点云图像的权重,使得输入的点云图像中角度偏移大于阈值的点云图像,在匹配值中的分值权重小于预设值。
步骤710,采用RTS平滑算法,对NDT匹配算法得到的离线定位数据进行滤波处理,得到滤波处理后的离线定位数据。
其中,RTS(Rauch Tung Striebel,容积平滑器)算法为卡尔曼滤波算法中的一种,可对离线定位数据进行滤波处理,得到定位精度更高的离线定位数据。
步骤712,根据各帧实时定位图像的匹配值对滤波处理后的离线定位数据进行筛选,将得到的结果作为参考值,计算所述参考值与对应实时定位数据的差值,根据所述差值得到定位算法的精度。
其中,各帧实时定位图像的匹配值反映各帧实时定位图像与对应源点云图像的相似度。本实施例可筛选出相似度最高即匹配值最大的实时定位图像,将其对应的源点云图像的位置数据作为该实时定位图像的实时定位数据的参考值。其中,根据该差值可直接得到定位算法的误差,也可计算至少一个差值的的平均值或加权平均值或中值,将平均值或加权平均值或中值作为定位算法的精度。
上述定位算法的精度检测方法,采用改造后的NDT匹配算法作为离线定位算法,得到离线定位数据,再RTS平滑算法进行滤波处理,得到更高精度的离线定位数据,将其作为实时定位数据的参考值,最后将该参考值与实时定位数据对比得到定位算法的精度,实现了定位算法的精度检测。
应该理解的是,虽然图1-7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种定位算法的精度检测装置,包括:图像获取模块802、实时定位模块804、离线定位模块806和精度计算模块808,其中:
图像获取模块802,用于获取运动对象的实时点云图像。
实时定位模块804,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述运动对象的实时定位数据。
离线定位模块806,用于采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据;所述离线定位算法的定位精度大于所述实时定位算法的定位精度。
精度计算模块808,用于将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度。
所述装置还包括:地图构建模块,用于获取源点云图像,根据所述源点云图像构建点云地图。
其中,地图构建模块包括:第一目标检测单元,用于获取源点云图像,进行目标检测,得到源障碍物点云图像;第一障碍滤除单元,用于将所述源点云图像中的源障碍物点云图像滤除;构建单元,用于根据所述滤除处理后的源点云图像构建点云地图。目标检测单元还包括模型运用单元,模型运用单元用于将获取的源点云图像输入到训练好的目标检测模型,得到源障碍物点云图像,目标检测模型为根据包含有障碍物的点云样本图像训练得到的。
其中,实时定位模块804包括:
图像匹配单元,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述实时点云图像对应的源点云图像;
数据获取单元,用于将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象在所述点云地图中的实时定位数据。
其中,离线定位模块806包括:
第二目标检测单元,用于获取实时点云图像,将所述实时点云图像输入到离线定位算法中训练好的目标检测模型,得到目标障碍物点云图像;
第二障碍滤除单元,用于将所述目标障碍物点云图像从所述实时点云图像中滤除,得到滤除处理后的实时点云图像;
图像匹配单元,用于将所述滤除处理后的实时点云图像输入到离线定位算法中训练好的匹配模型,得到与所述滤除处理后的实时点云图像对应的源点云图像,匹配模型为根据实时点云图像和对应的源点云图像训练得到的;
数据获取单元,用于将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象的离线定位数据。
图像匹配单元还用于根据所述滤除处理后的各个实时点云图像的匹配值的大小,筛选出所述匹配值最大的实时点云图像,将所述匹配值最大的实时点云图像对应的源点云图像作为匹配模型的输出。
图像匹配单元还用于设置匹配模型中静态物体点云的匹配值所对应的权重,高于动态物体点云的匹配值所对应的权重。
其中,精度计算模块808包括:
数据获取单元,用于获取所述实时定位数据与所述对应离线定位数据;
差值计算单元,用于计算各个所述实时定位数据与所述对应离线定位数据的差值;
精度确定单元,用于计算所述各个的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述定位算法的精度。
关于定位算法的精度检测装置的具体限定可以参见上文中对于定位算法的精度检测方法的限定,在此不再赘述。上述定位算法的精度检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种定位算法的精度检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述定位算法的精度检测方法步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述定位算法的精度检测方法步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种定位算法的精度检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取运动对象的实时点云图像,其中,所述实时点云图像包含深度信息;
实时定位模块,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述运动对象的实时定位数据,所述点云地图为根据激光点云数据建成的地图;
离线定位模块,用于采用离线定位算法,对所述实时点云图像和所述点云地图中的源点云图像进行匹配,得到所述运动对象的离线定位数据;所述离线定位算法的定位精度大于所述实时定位算法的定位精度;
精度计算模块,用于将所述离线定位数据作为实时定位数据的参考值,根据所述参考值和所述实时定位数据,确定所述实时定位数据的精度;
所述离线定位模块,包括:
第二目标检测单元,用于获取实时点云图像,将所述实时点云图像输入到离线定位算法中训练好的目标检测模型,得到目标障碍物点云图像;
第二障碍滤除单元,用于将所述目标障碍物点云图像从所述实时点云图像中滤除,得到滤除处理后的实时点云图像;
图像匹配单元,用于将所述滤除处理后的实时点云图像输入到离线定位算法中训练好的匹配模型,得到与所述滤除处理后的实时点云图像对应的源点云图像,匹配模型为根据实时点云图像和对应的源点云图像训练得到的;
数据获取单元,用于将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象的离线定位数据。
2.根据权利要求1所述的精度检测装置,其特征在于,所述装置还包括地图构建模块;所述地图构建模块包括:
第一目标检测单元,用于获取源点云图像,进行目标检测,得到源障碍物点云图像;
第一障碍滤除单元,用于将所述源点云图像中的源障碍物点云图像滤除;
构建单元,用于根据所述滤除处理后的源点云图像构建点云地图。
3.根据权利要求2所述的精度检测装置,其特征在于,所述目标检测单元还用于获取源点云图像,将所述源点云图像输入到训练好的目标检测模型,得到源障碍物点云图像;所述目标检测模型为根据包含有障碍物的点云样本图像训练得到的。
4.根据权利要求1所述的精度检测装置,其特征在于,所述实时定位模块,包括:
图像匹配单元,用于采用实时定位算法,对所述实时点云图像和已构建的点云地图中的源点云图像进行匹配,得到所述实时点云图像对应的源点云图像;
数据获取单元,用于将所述实时点云图像对应的源点云图像的位置信息作为所述运动对象在所述点云地图中的实时定位数据。
5.根据权利要求1所述的精度检测装置,其特征在于,所述图像匹配单元还用于根据所述滤除处理后的各个实时点云图像的匹配值的大小,筛选出所述匹配值最大的实时点云图像,将所述匹配值最大的实时点云图像对应的源点云图像作为匹配模型的输出。
6.根据权利要求1所述的精度检测装置,其特征在于,述图像匹配单元还用于设置匹配模型中静态物体点云的匹配值所对应的权重,高于动态物体点云的匹配值所对应的权重。
7.根据权利要求1所述的精度检测装置,其特征在于,所述精度计算模块包括:
数据获取单元,用于获取所述实时定位数据与所述对应离线定位数据;
差值计算单元,用于计算各个所述实时定位数据与所述对应离线定位数据的差值;
精度确定单元,用于计算所述各个的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述定位算法的精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310890176.8A CN116972880A (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204805.0A CN111721283B (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
CN202310890176.8A CN116972880A (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910204805.0A Division CN111721283B (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116972880A true CN116972880A (zh) | 2023-10-31 |
Family
ID=72563252
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910204805.0A Active CN111721283B (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
CN202310890176.8A Pending CN116972880A (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910204805.0A Active CN111721283B (zh) | 2019-03-18 | 2019-03-18 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111721283B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112700479B (zh) * | 2020-12-23 | 2024-02-23 | 北京超星未来科技有限公司 | 一种基于cnn点云目标检测的配准方法 |
CN114442605B (zh) * | 2021-12-16 | 2023-08-18 | 中国科学院深圳先进技术研究院 | 定位检测方法、装置、自主移动设备以及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105424026B (zh) * | 2015-11-04 | 2017-07-07 | 中国人民解放军国防科学技术大学 | 一种基于点云轨迹的室内导航定位方法与系统 |
CN106225790B (zh) * | 2016-07-13 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 一种无人车定位精度的确定方法及装置 |
CN106168805A (zh) * | 2016-09-26 | 2016-11-30 | 湖南晖龙股份有限公司 | 基于云计算的机器人自主行走的方法 |
CN106846308B (zh) * | 2017-01-20 | 2019-08-20 | 广州市城市规划勘测设计研究院 | 基于点云的地形图精度的检测方法和装置 |
CN108876852B (zh) * | 2017-05-09 | 2021-06-22 | 中国科学院沈阳自动化研究所 | 一种基于3d视觉的在线实时物体识别定位方法 |
CN107451593B (zh) * | 2017-07-07 | 2020-05-15 | 西安交通大学 | 一种基于图像特征点的高精度gps定位方法 |
CN108389264B (zh) * | 2018-02-07 | 2022-03-29 | 杭州易现先进科技有限公司 | 坐标系统确定方法、装置、存储介质及电子设备 |
CN108871353B (zh) * | 2018-07-02 | 2021-10-15 | 上海西井信息科技有限公司 | 路网地图生成方法、系统、设备及存储介质 |
CN109270545B (zh) * | 2018-10-23 | 2020-08-11 | 百度在线网络技术(北京)有限公司 | 一种定位真值校验方法、装置、设备及存储介质 |
CN109459734B (zh) * | 2018-10-30 | 2020-09-11 | 百度在线网络技术(北京)有限公司 | 一种激光雷达定位效果评估方法、装置、设备及存储介质 |
-
2019
- 2019-03-18 CN CN201910204805.0A patent/CN111721283B/zh active Active
- 2019-03-18 CN CN202310890176.8A patent/CN116972880A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111721283B (zh) | 2023-08-15 |
CN111721283A (zh) | 2020-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109974693B (zh) | 无人机定位方法、装置、计算机设备及存储介质 | |
EP3309751B1 (en) | Image processing device, method, and program | |
CN111797650B (zh) | 障碍物的识别方法、装置、计算机设备和存储介质 | |
CN106529538A (zh) | 一种飞行器的定位方法和装置 | |
CN110047108B (zh) | 无人机位姿确定方法、装置、计算机设备及存储介质 | |
CN109871739B (zh) | 基于yolo-sioctl的机动站自动目标检测与空间定位方法 | |
CN116109706B (zh) | 基于先验几何约束的空间目标反演方法、装置和设备 | |
CN111721283B (zh) | 定位算法的精度检测方法、装置、计算机设备和存储介质 | |
CN113743385A (zh) | 一种无人船水面目标检测方法、装置及无人船 | |
CN114359334A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN111723597B (zh) | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 | |
CN112629565B (zh) | 像机与惯性测量单元旋转关系校准方法、装置和设备 | |
CN116630442B (zh) | 一种视觉slam位姿估计精度评估方法及装置 | |
CN113033439A (zh) | 用于数据处理的方法、装置和电子设备 | |
CN110706257B (zh) | 有效特征点对的识别方法、相机状态的确定方法及装置 | |
CN111445513A (zh) | 基于深度图像的植株冠层体积获取方法、装置、计算机设备和存储介质 | |
CN115376018A (zh) | 建筑物高度及占地面积计算方法、装置、设备及存储介质 | |
CN111259702A (zh) | 一种用户兴趣的估计方法及装置 | |
CN111161357B (zh) | 信息处理方法及装置、增强现实设备和可读存储介质 | |
CN111723826B (zh) | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 | |
CN116518981B (zh) | 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法 | |
US20200294315A1 (en) | Method and system for node vectorisation | |
CN115880444A (zh) | 地图元素的坐标优化方法、装置、计算机设备及存储介质 | |
CN115661345A (zh) | 一种基于多轨迹slam信息的三维重建方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |