CN110954933B - 一种基于场景dna的移动平台定位装置及方法 - Google Patents
一种基于场景dna的移动平台定位装置及方法 Download PDFInfo
- Publication number
- CN110954933B CN110954933B CN201911249733.8A CN201911249733A CN110954933B CN 110954933 B CN110954933 B CN 110954933B CN 201911249733 A CN201911249733 A CN 201911249733A CN 110954933 B CN110954933 B CN 110954933B
- Authority
- CN
- China
- Prior art keywords
- feature
- node
- deep learning
- image
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000005259 measurement Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000013135 deep learning Methods 0.000 claims description 53
- 230000004927 fusion Effects 0.000 claims description 35
- 239000013598 vector Substances 0.000 claims description 35
- 238000013527 convolutional neural network Methods 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 10
- 210000002569 neuron Anatomy 0.000 claims description 10
- 238000013519 translation Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于场景DNA的移动平台定位装置及方法,包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;数据采集单元包括设置在固定支架上的前视相机、下视相机和卫星定位模块;数据处理单元用于根据数据采集单元采集的信息,构建基于场景DNA的地图,然后基于场景DNA地图进行初定位、图像级定位和度量级定位,能够提高对移动平台的定位精度。
Description
技术领域
本发明涉及车辆定位领域,具体涉及一种基于场景DNA的移动平台定位装置及方法。
背景技术
近年来,随着无人车技术的兴起,对车辆定位尤其是度量级车辆定位的需求也日益迫切,基于地图的车辆定位通过匹配待定位和地图图像特征实现,但在现实环境中,光照、天气变幻、场景变换导致图像特征变换,从而降低车辆定位精度。
目前,在车辆定位中已有一些成果,例如已授权的专利CN206960591B,专利名为“基于路面指纹的车辆高精度定位装置及方法”,公开了一种利用基于路面指纹的车辆定位方法。但该方法只是利用深度学习识别路面场景,即提取深度学习的最后一层特征,没有充分的利用深度学习特征。专利申请CN109099929A公开了一种基于场景指纹的车辆定位方法,但该方法没有充分的利用图像局部特征,因此无法实现度量级定位。
发明内容
本发明要解决的技术问题是:提供一种基于场景DNA的移动平台定位装置及方法,能够提高移动平台的定位精度。
本发明为解决上述技术问题所采取的技术方案为:一种基于场景DNA的移动平台定位装置,其特征在于:本定位装置包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;其中,
信息采集辅助单元为固定在移动平台上的固定支架,移动平台为待定位的对象;
数据采集单元包括设置在固定支架上的前视相机、下视相机和卫星定位模块;前视相机用于采集移动平台的前视图像;下视相机用于面向路面,采集移动平台的下视图像;卫星定位模块用于采集卫星定位信息;
标定单元用于给所述的前视相机和下视相机进行标定,获得前视相机和下视相机的内参数;
数据处理单元用于根据数据采集单元采集的信息,按照以下步骤进行定位:
S1、构建基于场景DNA的地图:
构建的地图由一系列已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将前视相机和下视相机采集的图像载入到卷积神经网络CNN中,并提取CNN各层的参数,融合提取的参数形成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
S2、基于场景DNA地图的初定位:
通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
S3、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
S4、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到下视相机的内参,计算待定位节点与S3得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
按上述方案,所述的前视相机为工业相机。
按上述方案,所述的下视相机为采集帧速高于4帧/S的高速相机。
按上述方案,所述的卫星定位模块为GPS接收器、北斗、伽利略或格洛纳斯定位模块。
按上述方案,所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
按上述方案,所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
按上述方案,所述的距离为欧氏距离或余弦距离。
一种利用所述的基于场景DNA的移动平台装置的定位方法,其特征在于:本方法包括以下步骤:
步骤一、当有移动平台在已知区域内进行移动时,通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
所述的待定位节点为移动平台所在位置;所述的已知区域为针对该区域已经构建了基于场景DNA的地图;所构建的基于场景DNA的地图由一系列所述的已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将CNN各特征层的参数融合成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
步骤二、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
步骤三、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到的下视相机的内参,计算待定位节点与步骤二得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
按上述方法,其特征在于:
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
按上述方法,所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
本发明的有益效果为:先对区域内构建基于场景DNA的地图,所构建的地图由一序列已知节点构成,每个已知节点将卫星定位、融合深度学习特征和图像局部特征有机融合;基于地图的移动平台定位首先利用卫星定位实现初定位,再利用前视图像的融合深度学习特征实现图像级定位,最后利用下视图像的融合深度学习特征和局部特征实现度量级定位,从而提高对移动平台的定位精度。
附图说明
图1为本发明一实施例的方法流程图。
图2为基于场景DNA的地图构建原理图。
图3为本发明一实施例的装置结构图。
图中:1-移动平台,2-固定支架,3-卫星定位模块,4-前视相机,5-下视相机。
具体实施方式
下面结合具体实例和附图对本发明做进一步说明。
本发明提供一种基于场景DNA的移动平台定位装置,如图3所示,本定位装置包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;其中,信息采集辅助单元为固定在移动平台1上的固定支架2,使得固定支架2与移动平台1之间无相对位移,移动平台1为待定位的对象。数据采集单元包括设置在固定支架2上的前视相机4、下视相机5和卫星定位模块3。前视相机4用于采集移动平台的前视图像,本实施例选用工业相机。下视相机5用于面向路面,采集移动平台的下视图像,本实施例选用帧数高于4帧/s高速相机。卫星定位模块用于采集卫星定位信息,本实施例选用GPS接收器,也可以是其它的全球定位系统,例如北斗、伽利略或格洛纳斯。标定单元用于给所述的前视相机4和下视相机5进行标定,获得前视相机4和下视相机5的内参数。
如图1所示,数据处理单元用于根据数据采集单元采集的信息,按照以下步骤进行定位:
S1、构建基于场景DNA的地图:
构建的地图由一系列已知节点构成,如图2所示,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中,卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将前视相机和下视相机采集的图像载入到卷积神经网络CNN中,并提取CNN各层的参数,融合提取的参数形成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符。
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数。
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
S2、基于场景DNA地图的初定位:
通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合。
Mc={mi|dis(Gi,G)≤g} (5)
式(5)中,g为卫星定位的误差范围,G为待定位节点,Gi为ith已知节点。经过初定位后得到点集Mc,Mc为筛选出的已知节点的集合。
S3、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离(欧氏距离,余弦距离等),通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点。
S4、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到的下视相机的内参,计算待定位节点与S3得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
在实际应用时,已知区域内已经建立好了基于场景DNA的地图,当有移动平台在已知区域内进行移动时,通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合,然后再进行图像级定位和度量级定位。
本发明提供一种基于场景DNA的移动平台定位装置及方法,将前视图像和下视图像载入到卷积神经网络(Convolutional Neural Network,CNN)中,提取不同视角图像的CNN各层特征形成一个新的定位特征,并融合图像的图像局部特征和卫星定位信息形成的一种具有唯一性和定位鲁棒性高的定位特征。通过结合场景DNA和计算机视觉理论,即可实现移动平台位姿计算。本发明装置简单且价格低廉,同时定位结果精度高,鲁棒性强。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。
Claims (8)
1.一种基于场景DNA的移动平台定位装置,其特征在于:本定位装置包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;其中,
信息采集辅助单元为固定在移动平台上的固定支架,移动平台为待定位的对象;
数据采集单元包括设置在固定支架上的前视相机、下视相机和卫星定位模块;前视相机用于采集移动平台的前视图像;下视相机用于面向路面,采集移动平台的下视图像;卫星定位模块用于采集卫星定位信息;
标定单元用于给所述的前视相机和下视相机进行标定,获得前视相机和下视相机的内参数;
数据处理单元用于根据数据采集单元采集的信息,按照以下步骤进行定位:
S1、构建基于场景DNA的地图:
构建的地图由一系列已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将前视相机和下视相机采集的图像载入到卷积神经网络CNN中,并提取CNN各层的参数,融合提取的参数形成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2…λN]:
B=[λ1 λ2…λN]
λ1>λ2>…λN (2)
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
S2、基于场景DNA地图的初定位:
通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
S3、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
S4、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到下视相机的内参,计算待定位节点与S3得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
2.根据权利要求1所述的移动平台定位装置,其特征在于:所述的前视相机为工业相机。
3.根据权利要求1所述的移动平台定位装置,其特征在于:所述的下视相机为采集帧速高于4帧/S的高速相机。
4.根据权利要求1所述的移动平台定位装置,其特征在于:所述的卫星定位模块为GPS接收器、北斗、伽利略或格洛纳斯定位模块。
5.根据权利要求1所述的移动平台定位装置,其特征在于:所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
6.根据权利要求1所述的移动平台定位装置,其特征在于:所述的距离为欧氏距离或余弦距离。
7.一种利用权利要求1所述的基于场景DNA的移动平台装置的定位方法,其特征在于:本方法包括以下步骤:
步骤一、当有移动平台在已知区域内进行移动时,通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
所述的待定位节点为移动平台所在位置;所述的已知区域为针对该区域已经构建了基于场景DNA的地图;所构建的基于场景DNA的地图由一系列所述的已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将CNN各特征层的参数融合成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
步骤二、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
步骤三、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到的下视相机的内参,计算待定位节点与步骤二得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位;
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2…λN]:
B=[λ1 λ2…λN]
λ1>λ2>…λN (2)
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
8.根据权利要求7所述的定位方法,其特征在于:所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911249733.8A CN110954933B (zh) | 2019-12-09 | 2019-12-09 | 一种基于场景dna的移动平台定位装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911249733.8A CN110954933B (zh) | 2019-12-09 | 2019-12-09 | 一种基于场景dna的移动平台定位装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110954933A CN110954933A (zh) | 2020-04-03 |
CN110954933B true CN110954933B (zh) | 2023-05-23 |
Family
ID=69980426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911249733.8A Active CN110954933B (zh) | 2019-12-09 | 2019-12-09 | 一种基于场景dna的移动平台定位装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110954933B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201718628D0 (en) * | 2017-11-10 | 2017-12-27 | Horiba Mira Ltd | Method of computer vision based localisation and navigation and system for performing the same |
CN107909008A (zh) * | 2017-10-29 | 2018-04-13 | 北京工业大学 | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 |
CN109151995A (zh) * | 2018-09-04 | 2019-01-04 | 电子科技大学 | 一种基于信号强度的深度学习回归融合定位方法 |
CN109405824A (zh) * | 2018-09-05 | 2019-03-01 | 武汉契友科技股份有限公司 | 一种适用于智能网联汽车的多源感知定位系统 |
CN109671119A (zh) * | 2018-11-07 | 2019-04-23 | 中国科学院光电研究院 | 一种基于slam的室内定位方法及装置 |
DE102017127592A1 (de) * | 2017-11-22 | 2019-05-23 | Connaught Electronics Ltd. | Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem |
CN110209859A (zh) * | 2019-05-10 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 地点识别及其模型训练的方法和装置以及电子设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2491523A1 (en) * | 2009-10-19 | 2012-08-29 | Robert A. Carter | Location reliability determination |
CN104185225A (zh) * | 2014-09-11 | 2014-12-03 | 南京大学 | 一种基于场景分类的室内外无缝定位切换方法 |
CN106899935B (zh) * | 2017-01-18 | 2018-08-14 | 深圳大学 | 一种基于无线接收设备和摄像头的室内定位方法及系统 |
CN108416840B (zh) * | 2018-03-14 | 2020-02-18 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
CN109029442A (zh) * | 2018-06-07 | 2018-12-18 | 武汉理工大学 | 基于多视角匹配的定位装置及方法 |
CN109099929B (zh) * | 2018-07-13 | 2021-10-15 | 武汉理工大学 | 基于场景指纹的智能车定位装置及方法 |
US11024041B2 (en) * | 2018-12-10 | 2021-06-01 | Intel Corporation | Depth and motion estimations in machine learning environments |
-
2019
- 2019-12-09 CN CN201911249733.8A patent/CN110954933B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909008A (zh) * | 2017-10-29 | 2018-04-13 | 北京工业大学 | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 |
GB201718628D0 (en) * | 2017-11-10 | 2017-12-27 | Horiba Mira Ltd | Method of computer vision based localisation and navigation and system for performing the same |
DE102017127592A1 (de) * | 2017-11-22 | 2019-05-23 | Connaught Electronics Ltd. | Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem |
CN109151995A (zh) * | 2018-09-04 | 2019-01-04 | 电子科技大学 | 一种基于信号强度的深度学习回归融合定位方法 |
CN109405824A (zh) * | 2018-09-05 | 2019-03-01 | 武汉契友科技股份有限公司 | 一种适用于智能网联汽车的多源感知定位系统 |
CN109671119A (zh) * | 2018-11-07 | 2019-04-23 | 中国科学院光电研究院 | 一种基于slam的室内定位方法及装置 |
CN110209859A (zh) * | 2019-05-10 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 地点识别及其模型训练的方法和装置以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110954933A (zh) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021233029A1 (en) | Simultaneous localization and mapping method, device, system and storage medium | |
CN112419374B (zh) | 一种基于图像配准的无人机定位方法 | |
CN110570449B (zh) | 一种基于毫米波雷达与视觉slam的定位与建图方法 | |
CN106529587B (zh) | 基于目标点识别的视觉航向识别方法 | |
CN113313763B (zh) | 一种基于神经网络的单目相机位姿优化方法及装置 | |
CN109631911B (zh) | 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法 | |
CN105222788A (zh) | 基于特征匹配的飞行器航偏移误差的自校正方法 | |
CN109596121B (zh) | 一种机动站自动目标检测与空间定位方法 | |
CN109871739B (zh) | 基于yolo-sioctl的机动站自动目标检测与空间定位方法 | |
CN113295171A (zh) | 一种基于单目视觉的旋转刚体航天器姿态估计方法 | |
CN109883400B (zh) | 基于yolo-sitcol的固定站自动目标检测与空间定位方法 | |
CN112219225A (zh) | 定位方法、系统及可移动平台 | |
CN112907663B (zh) | 定位方法、计算机程序产品、装置及系统 | |
CN117197241B (zh) | 一种基于多目视觉的机器人末端绝对位姿高精度跟踪方法 | |
CN110954933B (zh) | 一种基于场景dna的移动平台定位装置及方法 | |
CN111598956A (zh) | 标定方法、装置和系统 | |
CN116309821A (zh) | 一种基于异源图像配准的无人机定位方法 | |
CN114088103B (zh) | 车辆定位信息的确定方法和装置 | |
CN113920194B (zh) | 基于视觉惯性融合的四旋翼飞行器定位方法 | |
CN115993616A (zh) | 一种基于异源影像匹配的无人机快速地理定位方法及装置 | |
CN114299477A (zh) | 一种车辆视觉定位方法、系统、设备及可读存储介质 | |
CN109919998B (zh) | 卫星姿态确定方法、装置和终端设备 | |
CN114322996A (zh) | 一种多传感器融合定位系统的位姿优化方法和装置 | |
CN117576218B (zh) | 一种自适应的视觉惯导里程计输出方法 | |
CN115597592B (zh) | 一种应用于无人机巡检的综合定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231226 Address after: No. 5, Floor 15, Unit 06, Building 06, Phase II of Laser Engineering Design Headquarters, No. 3 Guanggu Avenue, Donghu New Technology Development Zone, Wuhan City, Hubei Province, 430000, M862 Patentee after: Wuhan Changxiang Technology Co.,Ltd. Address before: 430000 Unit 1, Building 7, Zhuankou Economic Development Zone, Wuhan City, Hubei Province Patentee before: Wang Xianglong |
|
TR01 | Transfer of patent right |