CN110954933A - 一种基于场景dna的移动平台定位装置及方法 - Google Patents

一种基于场景dna的移动平台定位装置及方法 Download PDF

Info

Publication number
CN110954933A
CN110954933A CN201911249733.8A CN201911249733A CN110954933A CN 110954933 A CN110954933 A CN 110954933A CN 201911249733 A CN201911249733 A CN 201911249733A CN 110954933 A CN110954933 A CN 110954933A
Authority
CN
China
Prior art keywords
positioning
node
deep learning
image
looking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911249733.8A
Other languages
English (en)
Other versions
CN110954933B (zh
Inventor
王相龙
王赣龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Changxiang Technology Co.,Ltd.
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201911249733.8A priority Critical patent/CN110954933B/zh
Publication of CN110954933A publication Critical patent/CN110954933A/zh
Application granted granted Critical
Publication of CN110954933B publication Critical patent/CN110954933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于场景DNA的移动平台定位装置及方法,包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;数据采集单元包括设置在固定支架上的前视相机、下视相机和卫星定位模块;数据处理单元用于根据数据采集单元采集的信息,构建基于场景DNA的地图,然后基于场景DNA地图进行初定位、图像级定位和度量级定位,能够提高对移动平台的定位精度。

Description

一种基于场景DNA的移动平台定位装置及方法
技术领域
本发明涉及车辆定位领域,具体涉及一种基于场景DNA的移动平台定位装置及方法。
背景技术
近年来,随着无人车技术的兴起,对车辆定位尤其是度量级车辆定位的需求也日益迫切,基于地图的车辆定位通过匹配待定位和地图图像特征实现,但在现实环境中,光照、天气变幻、场景变换导致图像特征变换,从而降低车辆定位精度。
目前,在车辆定位中已有一些成果,例如已授权的专利CN206960591B,专利名为“基于路面指纹的车辆高精度定位装置及方法”,公开了一种利用基于路面指纹的车辆定位方法。但该方法只是利用深度学习识别路面场景,即提取深度学习的最后一层特征,没有充分的利用深度学习特征。专利申请CN109099929A公开了一种基于场景指纹的车辆定位方法,但该方法没有充分的利用图像局部特征,因此无法实现度量级定位。
发明内容
本发明要解决的技术问题是:提供一种基于场景DNA的移动平台定位装置及方法,能够提高移动平台的定位精度。
本发明为解决上述技术问题所采取的技术方案为:一种基于场景DNA的移动平台定位装置,其特征在于:本定位装置包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;其中,
信息采集辅助单元为固定在移动平台上的固定支架,移动平台为待定位的对象;
数据采集单元包括设置在固定支架上的前视相机、下视相机和卫星定位模块;前视相机用于采集移动平台的前视图像;下视相机用于面向路面,采集移动平台的下视图像;卫星定位模块用于采集卫星定位信息;
标定单元用于给所述的前视相机和下视相机进行标定,获得前视相机和下视相机的内参数;
数据处理单元用于根据数据采集单元采集的信息,按照以下步骤进行定位:
S1、构建基于场景DNA的地图:
构建的地图由一系列已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将前视相机和下视相机采集的图像载入到卷积神经网络CNN中,并提取CNN各层的参数,融合提取的参数形成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
S2、基于场景DNA地图的初定位:
通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
S3、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
S4、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到下视相机的内参,计算待定位节点与S3得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
按上述方案,所述的前视相机为工业相机。
按上述方案,所述的下视相机为采集帧速高于4帧/S的高速相机。
按上述方案,所述的卫星定位模块为GPS接收器、北斗、伽利略或格洛纳斯定位模块。
按上述方案,所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
再通过阈值
Figure BDA0002308680800000022
提取向量B的主要元素:
Figure BDA0002308680800000021
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
Figure BDA0002308680800000031
按上述方案,所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
按上述方案,所述的距离为欧氏距离或余弦距离。
一种利用所述的基于场景DNA的移动平台装置的定位方法,其特征在于:本方法包括以下步骤:
步骤一、当有移动平台在已知区域内进行移动时,通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
所述的待定位节点为移动平台所在位置;所述的已知区域为针对该区域已经构建了基于场景DNA的地图;所构建的基于场景DNA的地图由一系列所述的已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将CNN各特征层的参数融合成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
步骤二、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
步骤三、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到的下视相机的内参,计算待定位节点与步骤二得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
按上述方法,其特征在于:
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
再通过阈值
Figure BDA0002308680800000042
提取向量B的主要元素:
Figure BDA0002308680800000041
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
Figure BDA0002308680800000043
按上述方法,所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
本发明的有益效果为:先对区域内构建基于场景DNA的地图,所构建的地图由一序列已知节点构成,每个已知节点将卫星定位、融合深度学习特征和图像局部特征有机融合;基于地图的移动平台定位首先利用卫星定位实现初定位,再利用前视图像的融合深度学习特征实现图像级定位,最后利用下视图像的融合深度学习特征和局部特征实现度量级定位,从而提高对移动平台的定位精度。
附图说明
图1为本发明一实施例的方法流程图。
图2为基于场景DNA的地图构建原理图。
图3为本发明一实施例的装置结构图。
图中:1-移动平台,2-固定支架,3-卫星定位模块,4-前视相机,5-下视相机。
具体实施方式
下面结合具体实例和附图对本发明做进一步说明。
本发明提供一种基于场景DNA的移动平台定位装置,如图3所示,本定位装置包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;其中,信息采集辅助单元为固定在移动平台1上的固定支架2,使得固定支架2与移动平台1之间无相对位移,移动平台1为待定位的对象。数据采集单元包括设置在固定支架2上的前视相机4、下视相机5和卫星定位模块3。前视相机4用于采集移动平台的前视图像,本实施例选用工业相机。下视相机5用于面向路面,采集移动平台的下视图像,本实施例选用帧数高于4帧/s高速相机。卫星定位模块用于采集卫星定位信息,本实施例选用GPS接收器,也可以是其它的全球定位系统,例如北斗、伽利略或格洛纳斯。标定单元用于给所述的前视相机4和下视相机5进行标定,获得前视相机4和下视相机5的内参数。
如图1所示,数据处理单元用于根据数据采集单元采集的信息,按照以下步骤进行定位:
S1、构建基于场景DNA的地图:
构建的地图由一系列已知节点构成,如图2所示,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中,卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将前视相机和下视相机采集的图像载入到卷积神经网络CNN中,并提取CNN各层的参数,融合提取的参数形成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符。
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数。
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
再通过阈值
Figure BDA0002308680800000052
提取向量B的主要元素:
Figure BDA0002308680800000051
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
Figure BDA0002308680800000053
所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
S2、基于场景DNA地图的初定位:
通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合。
Mc={mi|dis(Gi,G)≤g} (5)
式(5)中,g为卫星定位的误差范围,G为待定位节点,Gi为ith已知节点。经过初定位后得到点集Mc,Mc为筛选出的已知节点的集合。
S3、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离(欧氏距离,余弦距离等),通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点。
Figure BDA0002308680800000061
式(6)中,m*是对应的最小距离的已知节点,Fq为待定位节点的融合深度学习特征,
Figure BDA0002308680800000062
筛选出的已知节点的融合深度学习特征。通过图像级定位,即得到与待定位节点最近的已知节点。
S4、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到的下视相机的内参,计算待定位节点与S3得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
在实际应用时,已知区域内已经建立好了基于场景DNA的地图,当有移动平台在已知区域内进行移动时,通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合,然后再进行图像级定位和度量级定位。
本发明提供一种基于场景DNA的移动平台定位装置及方法,将前视图像和下视图像载入到卷积神经网络(Convolutional Neural Network,CNN)中,提取不同视角图像的CNN各层特征形成一个新的定位特征,并融合图像的图像局部特征和卫星定位信息形成的一种具有唯一性和定位鲁棒性高的定位特征。通过结合场景DNA和计算机视觉理论,即可实现移动平台位姿计算。本发明装置简单且价格低廉,同时定位结果精度高,鲁棒性强。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (10)

1.一种基于场景DNA的移动平台定位装置,其特征在于:本定位装置包括数据采集单元、标定单元、信息采集辅助单元和数据处理单元;其中,
信息采集辅助单元为固定在移动平台上的固定支架,移动平台为待定位的对象;
数据采集单元包括设置在固定支架上的前视相机、下视相机和卫星定位模块;前视相机用于采集移动平台的前视图像;下视相机用于面向路面,采集移动平台的下视图像;卫星定位模块用于采集卫星定位信息;
标定单元用于给所述的前视相机和下视相机进行标定,获得前视相机和下视相机的内参数;
数据处理单元用于根据数据采集单元采集的信息,按照以下步骤进行定位:
S1、构建基于场景DNA的地图:
构建的地图由一系列已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将前视相机和下视相机采集的图像载入到卷积神经网络CNN中,并提取CNN各层的参数,融合提取的参数形成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
S2、基于场景DNA地图的初定位:
通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
S3、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
S4、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到下视相机的内参,计算待定位节点与S3得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
2.根据权利要求1所述的移动平台定位装置,其特征在于:所述的前视相机为工业相机。
3.根据权利要求1所述的移动平台定位装置,其特征在于:所述的下视相机为采集帧速高于4帧/S的高速相机。
4.根据权利要求1所述的移动平台定位装置,其特征在于:所述的卫星定位模块为GPS接收器、北斗、伽利略或格洛纳斯定位模块。
5.根据权利要求1所述的移动平台定位装置,其特征在于:所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
再通过阈值
Figure FDA0002308680790000023
提取向量B的主要元素:
Figure FDA0002308680790000021
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
Figure FDA0002308680790000022
6.根据权利要求1所述的移动平台定位装置,其特征在于:所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
7.根据权利要求1所述的移动平台定位装置,其特征在于:所述的距离为欧氏距离或余弦距离。
8.一种利用权利要求1所述的基于场景DNA的移动平台装置的定位方法,其特征在于:本方法包括以下步骤:
步骤一、当有移动平台在已知区域内进行移动时,通过对比待定位节点和已知节点的卫星定位信息,从而筛选出距离待定位节点一定范围内的已知节点的集合;
所述的待定位节点为移动平台所在位置;所述的已知区域为针对该区域已经构建了基于场景DNA的地图;所构建的基于场景DNA的地图由一系列所述的已知节点构成,每个已知节点均包含场景DNA信息,即卫星定位信息、融合深度学习特征和图像局部特征;其中
卫星定位信息通过所述的卫星定位模块得到;融合深度学习特征是指将CNN各特征层的参数融合成一个1×N的向量;图像局部特征是指分别对前视相机和下视相机获得的前视图像和下视图像的像素特征进行描述的特征描述符;
步骤二、基于场景DNA地图的图像级定位:
计算待定位节点与已知节点的前视图像的融合深度学习特征和图像局部特征的距离,通过比较距离,从已知节点的集合中,找到与待定位节点最近的已知节点;
步骤三、基于场景DNA的度量级定位:
利用下视图像的图像局部特征与融合深度学习特征,结合计算机视觉理论,利用标定得到的下视相机的内参,计算待定位节点与步骤二得到的与待定位节点最近的已知节点的相对位置关系,即旋转矩阵和平移矩阵,从而实现度量级定位。
9.根据权利要求8所述的定位方法,其特征在于:
所述的1×N的向量V为:
V1×N=[v1,v2,…,vn] (1)
式(1)中,vi为将图像载入到CNN后提取的第i特征层,n为CNN所包含的特征层数,通过将各层参数拉成一个向量,最后融合各层参数形成一个1×N的向量V,该向量即为融合后的深度学习特征,由于CNN所包含n层特征层,每个特征层包含若干个神经元,N为n层特征层包含神经元的总个数;
由于融合后的深度学习特征消耗存储空间较大,因此对融合后的深度学习特征进一步筛选,即通过对V按照元素大小进行排列得到新的向量B=[λ1 λ2 … λN]:
B=[λ1 λ2 … λN]
λ1>λ2>…λN (2)
再通过阈值
Figure FDA0002308680790000033
提取向量B的主要元素:
Figure FDA0002308680790000031
式(3)中,k*为挑选出来的主要元素,k为满足公式(3)的元素个数,通过找到k中的最小值k*从而保留主要元素,得到经过筛选的融合深度学习特征Vmul-feature
Figure FDA0002308680790000032
10.根据权利要求8所述的定位方法,其特征在于:所述的特征描述符为ORB、SURF、SIFT或LDB,并结合融合深度学习特征,基于计算机视觉理论,实现度量级定位。
CN201911249733.8A 2019-12-09 2019-12-09 一种基于场景dna的移动平台定位装置及方法 Active CN110954933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911249733.8A CN110954933B (zh) 2019-12-09 2019-12-09 一种基于场景dna的移动平台定位装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911249733.8A CN110954933B (zh) 2019-12-09 2019-12-09 一种基于场景dna的移动平台定位装置及方法

Publications (2)

Publication Number Publication Date
CN110954933A true CN110954933A (zh) 2020-04-03
CN110954933B CN110954933B (zh) 2023-05-23

Family

ID=69980426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911249733.8A Active CN110954933B (zh) 2019-12-09 2019-12-09 一种基于场景dna的移动平台定位装置及方法

Country Status (1)

Country Link
CN (1) CN110954933B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120208557A1 (en) * 2009-10-19 2012-08-16 Carter Robert A Location Reliability Determination
CN104185225A (zh) * 2014-09-11 2014-12-03 南京大学 一种基于场景分类的室内外无缝定位切换方法
GB201718628D0 (en) * 2017-11-10 2017-12-27 Horiba Mira Ltd Method of computer vision based localisation and navigation and system for performing the same
CN107909008A (zh) * 2017-10-29 2018-04-13 北京工业大学 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法
WO2018133265A1 (zh) * 2017-01-18 2018-07-26 深圳大学 一种基于无线接收设备和摄像头的室内定位方法及系统
CN109029442A (zh) * 2018-06-07 2018-12-18 武汉理工大学 基于多视角匹配的定位装置及方法
CN109099929A (zh) * 2018-07-13 2018-12-28 武汉理工大学 基于场景指纹的智能车定位装置及方法
CN109151995A (zh) * 2018-09-04 2019-01-04 电子科技大学 一种基于信号强度的深度学习回归融合定位方法
CN109405824A (zh) * 2018-09-05 2019-03-01 武汉契友科技股份有限公司 一种适用于智能网联汽车的多源感知定位系统
CN109671119A (zh) * 2018-11-07 2019-04-23 中国科学院光电研究院 一种基于slam的室内定位方法及装置
US20190122373A1 (en) * 2018-12-10 2019-04-25 Intel Corporation Depth and motion estimations in machine learning environments
DE102017127592A1 (de) * 2017-11-22 2019-05-23 Connaught Electronics Ltd. Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem
CN110209859A (zh) * 2019-05-10 2019-09-06 腾讯科技(深圳)有限公司 地点识别及其模型训练的方法和装置以及电子设备
WO2019174377A1 (zh) * 2018-03-14 2019-09-19 大连理工大学 一种基于单目相机的三维场景稠密重建方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120208557A1 (en) * 2009-10-19 2012-08-16 Carter Robert A Location Reliability Determination
CN104185225A (zh) * 2014-09-11 2014-12-03 南京大学 一种基于场景分类的室内外无缝定位切换方法
WO2018133265A1 (zh) * 2017-01-18 2018-07-26 深圳大学 一种基于无线接收设备和摄像头的室内定位方法及系统
CN107909008A (zh) * 2017-10-29 2018-04-13 北京工业大学 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法
GB201718628D0 (en) * 2017-11-10 2017-12-27 Horiba Mira Ltd Method of computer vision based localisation and navigation and system for performing the same
DE102017127592A1 (de) * 2017-11-22 2019-05-23 Connaught Electronics Ltd. Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem
WO2019174377A1 (zh) * 2018-03-14 2019-09-19 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN109029442A (zh) * 2018-06-07 2018-12-18 武汉理工大学 基于多视角匹配的定位装置及方法
CN109099929A (zh) * 2018-07-13 2018-12-28 武汉理工大学 基于场景指纹的智能车定位装置及方法
CN109151995A (zh) * 2018-09-04 2019-01-04 电子科技大学 一种基于信号强度的深度学习回归融合定位方法
CN109405824A (zh) * 2018-09-05 2019-03-01 武汉契友科技股份有限公司 一种适用于智能网联汽车的多源感知定位系统
CN109671119A (zh) * 2018-11-07 2019-04-23 中国科学院光电研究院 一种基于slam的室内定位方法及装置
US20190122373A1 (en) * 2018-12-10 2019-04-25 Intel Corporation Depth and motion estimations in machine learning environments
CN110209859A (zh) * 2019-05-10 2019-09-06 腾讯科技(深圳)有限公司 地点识别及其模型训练的方法和装置以及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王相龙 等: ""基于路面指纹的高精度车辆定位"" *

Also Published As

Publication number Publication date
CN110954933B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
CN111028277B (zh) 基于伪孪生卷积神经网络的sar和光学遥感图像配准方法
CN108960211B (zh) 一种多目标人体姿态检测方法以及系统
CN112419374B (zh) 一种基于图像配准的无人机定位方法
CN105354841B (zh) 一种快速遥感影像匹配方法及系统
CN105004337B (zh) 基于直线匹配的农用无人机自主导航方法
CN112183171A (zh) 一种基于视觉信标建立信标地图方法、装置
CN112465877B (zh) 一种基于运动状态估计的卡尔曼滤波视觉追踪稳定方法
CN110631588A (zh) 一种基于rbf网络的无人机视觉导航定位方法
CN113340312A (zh) 一种ar室内实景导航方法及系统
CN114299405A (zh) 一种无人机图像实时目标检测方法
CN114238675A (zh) 一种基于异源图像匹配的无人机地面目标定位方法
CN110992424B (zh) 基于双目视觉的定位方法和系统
CN108253940B (zh) 定位方法及装置
CN112288813B (zh) 基于多目视觉测量与激光点云地图匹配的位姿估计方法
CN115965961B (zh) 局部到全局的多模态融合方法、系统、设备及存储介质
CN111582013A (zh) 一种基于灰度共生矩阵特征船只检索方法及装置
CN110954933A (zh) 一种基于场景dna的移动平台定位装置及方法
CN111598956A (zh) 标定方法、装置和系统
CN114088103B (zh) 车辆定位信息的确定方法和装置
CN106651950B (zh) 一种基于二次曲线透视投影不变性的单相机位姿估计方法
CN115993616A (zh) 一种基于异源影像匹配的无人机快速地理定位方法及装置
CN115294280A (zh) 三维重建方法、装置、设备、存储介质和程序产品
CN109919998B (zh) 卫星姿态确定方法、装置和终端设备
CN110866535B (zh) 视差图的获取方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231226

Address after: No. 5, Floor 15, Unit 06, Building 06, Phase II of Laser Engineering Design Headquarters, No. 3 Guanggu Avenue, Donghu New Technology Development Zone, Wuhan City, Hubei Province, 430000, M862

Patentee after: Wuhan Changxiang Technology Co.,Ltd.

Address before: 430000 Unit 1, Building 7, Zhuankou Economic Development Zone, Wuhan City, Hubei Province

Patentee before: Wang Xianglong

TR01 Transfer of patent right