CN110706194A - 一种定位方法、装置及移动设备 - Google Patents

一种定位方法、装置及移动设备 Download PDF

Info

Publication number
CN110706194A
CN110706194A CN201810646527.XA CN201810646527A CN110706194A CN 110706194 A CN110706194 A CN 110706194A CN 201810646527 A CN201810646527 A CN 201810646527A CN 110706194 A CN110706194 A CN 110706194A
Authority
CN
China
Prior art keywords
positioning result
positioning
result
images
mobile equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810646527.XA
Other languages
English (en)
Other versions
CN110706194B (zh
Inventor
刘宇达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201810646527.XA priority Critical patent/CN110706194B/zh
Priority to US17/049,346 priority patent/US20210248773A1/en
Priority to PCT/CN2018/120775 priority patent/WO2019242251A1/zh
Publication of CN110706194A publication Critical patent/CN110706194A/zh
Application granted granted Critical
Publication of CN110706194B publication Critical patent/CN110706194B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种定位方法、装置及移动设备,其中,所述方法包括:获取移动设备在目标环境下采集的相邻两帧图像;将所述两帧图像中后采集的图像输入到第一深度学习模型中,得到所述移动设备的第一定位结果,以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果;基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。本申请可以实现仅依赖于模型本身,而无需依赖于庞大的特征库进行定位,可以提高定位方案的可行性,并且,可以提高定位方案的准确性。

Description

一种定位方法、装置及移动设备
技术领域
本申请涉及信息处理技术领域,尤其涉及一种定位方法、装置及移动设备。
背景技术
随着配送行业的迅猛发展,无人配送技术也日益受到人们的关注。由于无人车、无人机或配送机器人等移动设备可对其周围环境进行感知,对行驶路径进行规划,因而用户可以根据实际环境选取相应的移动设备配送货物,进而可以解决偏远山区、交通拥堵的城市等环境货物配送难度大的问题。
上述移动设备在自动驾驶过程中,需要对自身进行准确地定位,以执行环境感知、路径规划等操作。而现有的定位方案,如基于视觉的即时定位与地图构建VSLAM技术等,通常需要基于每帧图像进行定位,且依赖从每帧图像中提取特征点后形成的庞大的特征点库,即定位的范围越大,所需特征点库的数据越多,进而导致定位方案可行性较低,且由于仅基于每帧图像进行定位,因而导致定位准确性也较低。
发明内容
有鉴于此,本申请提供一种定位方法、装置及移动设备,可以提高定位方案的可行性,并提高定位的准确性。
具体地,本申请是通过如下技术方案实现的:
根据本申请的第一方面,提出了一种定位方法,包括:
获取移动设备在目标环境下采集的相邻两帧图像;
将所述两帧图像中后采集的图像输入到第一深度学习模型中,得到所述移动设备的第一定位结果,以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果;
基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
在一实施例中,所述第一深度学习模型根据以下步骤训练得到:
获取目标环境的多帧样本图像;
确定每帧所述样本图像对应的定位结果;
将所述多帧样本图像以及每帧所述样本图像对应的定位结果作为训练集,训练第一深度学习模型。
在一实施例中,所述基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,包括:
将所述两帧图像输入第二深度学习模型中,得到所述移动设备的动作预估结果;
基于所述动作预估结果和所述移动设备的上次综合定位结果,确定所述移动设备当前的第二定位结果。
在一实施例中,所述第二深度学习模型根据以下步骤训练得到:
获取移动设备采集的目标环境下的连续多帧样本图像;
确定所述多帧样本图像中每相邻两帧样本图像对应的动作预估结果;
将所述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果作为训练集,训练第二深度学习模型。
在一实施例中,所述基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果,包括:
基于卡尔曼滤波原理,将所述第一定位结果与所述第二定位结果进行融合,得到所述移动设备的综合定位结果。
在一实施例中,所述基于卡尔曼滤波原理,将所述第一定位结果与所述第二定位结果进行融合,得到所述移动设备的综合定位结果,包括:
将用于表征所述第一定位结果的第一高斯分布参数和用于表征所述第二定位结果的第二高斯分布参数相乘,得到用于表征综合定位结果的最终高斯分布参数。
在一实施例中,所述第一定位结果包括六自由度的定位信息,所述第二定位结果包括所述六自由度的定位信息,所述综合定位结果包括所述六自由度的定位信息。
根据本申请的第二方面,提出了一种定位装置,包括:
相邻图像获取模块,用于获取移动设备在目标环境下采集的相邻两帧图像;
第一结果获取模块,用于将所述两帧图像中后采集的图像输入到第一深度学习模型中,得到所述移动设备的第一定位结果;以及,第二结果确定模块,用于基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果;
综合结果确定模块,用于基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
根据本申请的第三方面,提出了一种移动设备,包括:
处理器;
被配置为存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述任一所述的定位方法。
根据本申请的第四方面,提出了一种计算机可读存储介质,所述存储介质存储有计算机器人机程序,所述计算机程序用于执行上述任一所述的定位方法。
由以上技术方案可见,本申请通过获取移动设备在目标环境下采集的相邻两帧图像,并将所述两帧图像中后采集的图像输入到第一深度学习模型中,得到所述移动设备的第一定位结果,以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,进而基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果,可以实现仅依赖于模型本身,而无需依赖于庞大的特征库进行定位,可以提高定位方案的可行性,并且,可以提高定位方案的准确性。
附图说明
图1是本申请一示例性实施例示出的一种定位方法的流程图;
图2是本申请又一示例性实施例示出的一种定位方法的流程图;
图3是本申请一示例性实施例示出的如何确定移动设备的第二定位结果的流程图;
图4是本申请又一示例性实施例示出的如何确定移动设备的第二定位结果的流程图;
图5是本申请一示例性实施例示出的一种定位装置的结构图;
图6是本申请又一示例性实施例示出的一种定位装置的结构图;
图7是本申请一示例性实施例示出的一种移动设备的结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在......时”或“当......时”或“响应于确定”。本文所指“第二从POS终端”可以是一个、两个或多个从POS终端,“第二”不用于限定数量,仅用于与“第一”从POS终端作区分。
图1是本申请一示例性实施例示出的一种定位方法的流程图;该实施例可以用于移动设备,也可以用于服务端(例如,一台服务器和多台服务器组成的服务器集群等)。如图1所示,该方法包括步骤S101-S104:
S101:获取移动设备在行驶过程中采集的目标环境下的相邻两帧图像。
在一实施例中,上述移动设备可以包括但不限于无人车、无人机或配送机器人等。
在一实施例中,移动设备在目标环境中行驶时,可以通过自身携带的图像获取装置(如,摄像头等)实时采集目标环境下的视频图像。进一步地,该图像获取装置可以通过有线或无线的方式,将采集的视频图像中的相邻两帧图像发送给移动设备。
在一实施例中,若上述相邻两帧图像中,后采集的一帧图像为图像获取装置当前采集的图像,则下述步骤S104中得到的综合定位结果为移动设备当前的定位结果。
S102:将所述两帧图像中后采集的图像输入到基于视觉定位的第一深度学习模型中,得到所述移动设备的第一定位结果。
在一实施例中,当获取到上述相邻两帧图像后,可以将该两帧图像中后采集的图像输入到基于视觉定位的第一深度学习模型中,得到所述移动设备的第一定位结果。
在一实施例中,上述第一深度学习模型可以为预先训练的用于基于视觉定位的神经网络模型,其模型的输入为单帧图像,输出为移动设备的第一定位结果。
在一实施例中,上述第一深度学习模型的训练方式可以参见下述图2所示实施例,在此先不进行详述。
在一实施例中,上述第一定位结果可以包括移动设备的位置和姿态共六自由度的定位信息,即沿x、y、z三个直角坐标轴方向的移动自由度,以及绕这三个坐标轴的转动自由度以及每个自由度的相应误差。相应地,下述第二定位结果和综合定位结果也可以包括该六自由度的定位信息以及每个自由度的相应误差。
S103:基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果。
值得说明的是,上述步骤S102和步骤S103可以为并列关系,而非先后关系。
在一实施例中,可以在执行步骤S102的同时,根据上述两帧图像确定移动设备行驶动作预估结果,进而再结合移动设备的上次综合定位结果,得到移动设备的第二定位结果。举例来说,可以对上次综合定位结果和当前行驶动作预估结果求和,得出第二定位结果。
在一实施例中,上次综合定位结果可以为基于当前采集的图像的前一帧图像和再前一帧图像确定的移动设备的综合定位结果。
在一实施例中,确定移动设备的第二定位结果的方式还可以参见下述图3所示实施例,在此先不进行详述。
S104:基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
在一实施例中,当基于当前采集的图像得到第一定位结果,以及,基于上述相邻两帧图像得到第二定位结果后,可以基于第一定位结果和第二定位结果确定移动设备的综合定位结果。
在一实施例中,可以基于卡尔曼滤波原理,将所述第一定位结果与所述第二定位结果进行融合,得到所述移动设备的综合定位结果。
在一实施例中,上述的第一定位结果和第二定位结果本质上都是一个分布,可以抽象为高斯分布。以1个自由度举例,若一定位结果中包括“位移:1m”,则可以确定:较大概率(如60%)下,位移为1m;小概率(如30%)下,位移偏了10%,即位于0.9m或1.1m;更小的概率(如10%)下,位移偏了50%等,进而可将该高斯分布的均值确定为位移定位结果,方差确定为位移定位结果的误差。
同理,每一个行驶动作预估结果也可以抽象为一个高斯分布。以1个自由度举例,若以行驶动作预估结果中包括“位移变化:+1m”,则可以确定:较大概率(如60%)下,位移变化为+1m;小概率(如30%)下,位移变化偏了10%,即为+0.9m或+1.1m;更小的概率(如10%)下,位移变化偏了50%等,进而可将该高斯分布的均值确定为位移变化结果,方差确定为位移变化结果的误差。
在一实施例中,可以将用于表征所述第一定位结果的第一高斯分布参数和用于表征所述第二定位结果的第二高斯分布参数相乘,得到用于表征综合定位结果的最终高斯分布参数。举例来说,可以采用如下公式(1)、公式(2)计算用于表征综合定位结果的高斯分布参数:
Figure BDA0001703642550000071
Figure BDA0001703642550000072
上式中,μ1、σ1为表征第一定位结果的第一高斯分布参数,即第一高斯分布的均值和方差;μ2、σ2为表征所述第二定位结果的第一高斯分布参数,即第二高斯分布的均值和方差;μ、σ为表征综合定位结果的最终高斯分布参数,即最终高斯分布的均值和方差。
显然,σ小于σ1和σ2,即降低了综合定位结果的误差,提高了定位的准确性。
由上述描述可知,本实施例通过获取移动设备在行驶过程中采集的目标环境下的相邻两帧图像,并将所述两帧图像中后采集的图像输入到基于视觉定位的第一深度学习模型中,得到所述移动设备的第一定位结果,以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,进而基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果,由于基于第一深度学习模型对移动设备进行定位,可以实现仅依赖于模型本身,而无需依赖于庞大的特征库进行定位,可以提高定位方案的可行性,并且,由于基于移动设备行驶过程中采集的相邻两帧图像得到移动设备的第二定位结果,进而根据第一定位结果和第二定位结果确定移动设备的综合定位结果,既考虑了每帧图像的定位结果,又考虑了相邻两帧图像的动作变化,因而可以提高定位方案的准确性。
此外,本实施例不需要依赖惯性测量单元IMU和GPS等设备,仅需图像采集装置即可实施,因而可以降低系统的成本。
图2是本申请又一示例性实施例示出的一种定位方法的流程图;该实施例可以用于移动设备,也可以用于服务端(例如,一台服务器和多台服务器组成的服务器集群等)。如图2所示,该方法包括步骤S201-S207:
S201:获取目标环境的多帧样本图像。
在一实施例中,为了训练基于视觉定位的第一深度学习模型,可以针对目标环境中的不同位置和方向获取多帧样本图像。
在一实施例中,上述目标环境可以由开发人员根据实际配送业务的需要进行选取,例如可以选取配送业务所在的国家、省份、城市或乡镇等,本实施例对此不进行限定。
S202:确定每帧所述样本图像对应的定位结果。
在一实施例中,当获取目标环境的多帧样本图像后,可以对每帧样本图像进行标定,以确定每帧样本图像对应的定位结果。例如,确定每帧样本图像对应的位置和方向。
在一实施例中,可以确定每帧样本图像对应的六自由度的定位结果,即沿x、y、z三个直角坐标轴方向的移动自由度,以及绕这三个坐标轴的转动自由度。
S203:将所述多帧样本图像以及每帧所述样本图像对应的定位结果作为训练集,训练第一深度学习模型。
在一实施例中,当得到上述多帧样本图像以及每帧样本图像对应的定位结果后,可以将所述多帧样本图像以及每帧所述样本图像对应的定位结果作为训练集,训练第一深度学习模型。
在一实施例中,上述第一深度学习模型可以为卷积神经网络CNN模型,也可以由开发人员根据实际业务需要选取其他模型进行训练,本实施例对此不进行限定。
值得说明的是,上述第一深度学习模型的训练过程中虽然也需要较多的样本数据,但是模型训练好后就不再需要上述样本数据了,只保留训练好的模型即可,模型本身记住训练信息,且模型的大小是固定的,不会随着待定位的范围变大而变大,即无需依赖于庞大的特征库进行定位,可以提高定位方案的可行性。
S204:获取移动设备在行驶过程中采集的目标环境下的相邻两帧图像。
S205:将所述两帧图像中后采集的图像输入到基于视觉定位的第一深度学习模型中,得到所述移动设备的第一定位结果;以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果。
S206:基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
其中,步骤S204-S206的相关解释和说明可以参见上述实施例,在此不进行赘述。
由上述描述可知,本实施例通过获取目标环境的多帧样本图像,并确定每帧所述样本图像对应的定位结果,进而将所述多帧样本图像以及每帧所述样本图像对应的定位结果作为训练集,训练第一深度学习模型,可以实现后续基于第一深度学习模型确定移动设备的第一定位结果,由于模型训练好后就不再需要样本数据,只保留训练好的模型即可,模型大小不会随着待定位的范围变大而变大,因而可以不依赖于庞大的特征库进行定位,提高定位方案的可行性。
图3是本申请一示例性实施例示出的如何确定移动设备的第二定位结果的流程图;本实施例在上述实施例的基础上,以如何确定移动设备的第二定位结果为例进行示例性说明。如图3所示,步骤S103中所述基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,可以包括以下步骤S301-S302:
S301:将所述两帧图像输入基于视觉预估动作的第二深度学习模型中,得到所述移动设备的行驶动作预估结果。
在一实施例中,可以预先训练用于基于视觉预估动作的第二深度学习模型,该模型的输入可以为移动设备自动驾驶过程中采集的相邻两帧图像,输出为移动设备的行驶动作预估结果。
在一实施例中,上述第二深度学习模型的训练过程可以参见下述图4所示实施例,在此先不进行详述。
在一实施例中,当获取到移动设备自动驾驶过程中采集的相邻两帧图像后,可以将这两帧图像输入到基于视觉预估动作的第二深度学习模型中,得到所述移动设备的行驶动作预估结果。
在一实施例中,上述行驶动作预估结果例如为“位移变化:+2m;方向变化:+10°”(这里仍以2自由度为例,实际上可以沿用至6自由度)。
S302:基于所述行驶动作预估结果和所述移动设备的上次综合定位结果,确定所述移动设备当前的第二定位结果。
在一实施例中,上次综合定位结果可以为基于当前采集的图像的前一帧图像和再前一帧图像确定的移动设备的综合定位结果。举例来说,若基于上述前一帧图像和再前一帧图像确定的上次综合定位结果为“位移:3m;方向:10°”(为了方便说明,这里以2自由度为例,实际上可以沿用至6自由度),则移动设备可以根据当前采集的图像和前一帧图像计算出当前采集的图像相对于前一帧图像的行驶动作预估结果,如算出“位移变化:+2m;方向变化:+10°”(这里仍以2自由度为例,实际上可以沿用至6自由度),因而可以对上次综合定位结果和当前行驶动作预估结果求和,得出第二定位结果为“位移:5m;方向:20°”。
由上述描述可知,本实施例通过将所述两帧图像输入基于视觉预估动作的第二深度学习模型中,得到所述移动设备的行驶动作预估结果,并基于所述行驶动作预估结果和所述移动设备的上次综合定位结果,确定所述移动设备当前的第二定位结果,由于基于移动设备行驶过程中采集的相邻两帧图像得到移动设备的第二定位结果,进而可以实现后续根据第一定位结果和第二定位结果确定移动设备的综合定位结果,既考虑了每帧图像的定位结果,又考虑了相邻两帧图像的动作变化,因而可以提高定位方案的准确性。
图4是本申请又一示例性实施例示出的如何确定移动设备的第二定位结果的流程图;本实施例在上述实施例的基础上,以如何确定移动设备的第二定位结果为例进行示例性说明。如图4所示,步骤S103中所述基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,可以包括以下步骤S401-S405:
S401:获取移动设备在行驶过程中采集的目标环境下的连续多帧样本图像。
在一实施例中,为了训练基于视觉预估动作的第二深度学习模型,可以当移动设备在目标环境的不同位置和方向上行驶过程时获取连续多帧样本图像,如视频图像。
在一实施例中,上述目标环境可以由开发人员根据实际配送业务的需要进行选取,例如可以选取配送业务所在的国家、省份、城市或乡镇等,本实施例对此不进行限定。
在一实施例中,上述移动设备可以为本申请实施例中待定位的移动设备,如无人车、无人机或配送机器人等。由于每个移动设备具有各自的行驶特点,因而利用该移动设备在行驶过程中采集的目标环境的连续多帧样本图像来训练第二深度学习模型,可以提高模型的针对性,保证模型预估动作的准确性。
S402:确定所述多帧样本图像中每相邻两帧样本图像对应的动作预估结果。
在一实施例中,当获取上述多帧样本图像后,可以对每相邻两帧样本图像进行标定,以确定每相邻两帧样本图像对应的动作预估结果。例如,确定每相邻两帧样本图像对应的位置改变量和方向改变量。
在一实施例中,可以确定每相邻两帧样本图像对应的六自由度的动作预估结果,即沿x、y、z三个直角坐标轴方向的移动自由度改变量,以及绕这三个坐标轴的转动自由度改变量。
S403:将所述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果作为训练集,训练第二深度学习模型。
在一实施例中,当得到上述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果后,可以所述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果作为训练集,训练第二深度学习模型。
在一实施例中,上述第二深度学习模型可以为卷积神经网络CNN模型,也可以由开发人员根据实际业务需要选取其他模型进行训练,本实施例对此不进行限定。
值得说明的是,上述第二深度学习模型的训练过程中虽然也需要较多的样本数据,但是模型训练好后就不再需要上述样本数据了,只保留训练好的模型即可,模型本身记住训练信息,且模型的大小是固定的,不会随着待环境范围变大而变大,即无需依赖于庞大的特征库进行动作预估,可以提高动作预估方案的可行性。
S404:将所述两帧图像输入基于视觉预估动作的第二深度学习模型中,得到所述移动设备的行驶动作预估结果。
S405:基于所述行驶动作预估结果和所述移动设备的上次综合定位结果,确定所述移动设备当前的第二定位结果。
其中,步骤S404-S405的相关解释和说明可以参见上述实施例,在此不进行赘述。
由上述描述可知,本实施例通过获取移动设备在行驶过程中采集的目标环境下的连续多帧样本图像,并确定所述多帧样本图像中每相邻两帧样本图像对应的动作预估结果,进而将所述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果作为训练集,训练第二深度学习模型,可以实现后续基于第二深度学习模型确定移动设备的行驶动作预估结果,由于模型训练好后就不再需要样本数据,只保留训练好的模型即可,模型大小不会随着环境范围变大而变大,因而可以不依赖于庞大的特征库进行动作预估,提高动作预估方案的可行性。
与前述方法实施例相对应,本申请还提供了相应的装置的实施例。
图5是本申请一示例性实施例示出的一种定位装置的结构图;如图5所示,该装置包括:相邻图像获取模块110、第一结果获取模块120、第二结果确定模块130以及综合结果确定模块140,其中:
相邻图像获取模块110,用于获取移动设备在行驶过程中采集的目标环境下的相邻两帧图像;
第一结果获取模块120,用于将所述两帧图像中后采集的图像输入到基于视觉定位的第一深度学习模型中,得到所述移动设备的第一定位结果;
第二结果确定模块130,用于基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果;
综合结果确定模块140,用于基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
由上述描述可知,本实施例通过获取移动设备在行驶过程中采集的目标环境下的相邻两帧图像,并将所述两帧图像中后采集的图像输入到基于视觉定位的第一深度学习模型中,得到所述移动设备的第一定位结果,以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,进而基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果,由于基于第一深度学习模型对移动设备进行定位,可以实现仅依赖于模型本身,而无需依赖于庞大的特征库进行定位,可以提高定位方案的可行性,并且,由于基于移动设备行驶过程中采集的相邻两帧图像得到移动设备的第二定位结果,进而根据第一定位结果和第二定位结果确定移动设备的综合定位结果,既考虑了每帧图像的定位结果,又考虑了相邻两帧图像的动作变化,因而可以提高定位方案的准确性。此外,本实施例不需要依赖惯性测量单元IMU和GPS等设备,仅需图像采集装置即可实施,因而可以降低系统的成本。
图6是本申请又一示例性实施例示出的一种定位装置的结构图。其中,相邻图像获取模块230、第一结果获取模块240、第二结果确定模块250以及综合结果确定模块260与前述图5所示实施例中的相邻图像获取模块110、第一结果获取模块120、第二结果确定模块130以及综合结果确定模块140的功能相同,在此不进行赘述。如图6所示,所述装置还可以包括第一模型训练模块210,用于训练基于视觉定位的第一深度学习模型;
第一模型训练模块210可以包括:
第一样本获取单元211,用于获取目标环境的多帧样本图像;
定位结果确定单元212,用于确定每帧所述样本图像对应的定位结果;
第一模型训练单元213,用于将所述多帧样本图像以及每帧所述样本图像对应的定位结果作为训练集,训练第一深度学习模型。
在一实施例中,第二结果确定模块250可以包括:
行驶动作预估单元251,用于将所述两帧图像输入基于视觉预估动作的第二深度学习模型中,得到所述移动设备的行驶动作预估结果;
第二结果获取单元252,用于基于所述行驶动作预估结果和所述移动设备的上次综合定位结果,确定所述移动设备当前的第二定位结果。
在一实施例中,装置还可以包括第二模型训练模块220,用于训练基于视觉预估动作的第二深度学习模型;
第二模型训练模块220可以包括:
第二样本获取单元221,用于获取移动设备在行驶过程中采集的目标环境下的连续多帧样本图像;
预估结果确定单元222,用于确定所述多帧样本图像中每相邻两帧样本图像对应的动作预估结果;
第二模型训练单元223,用于将所述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果作为训练集,训练第二深度学习模型。
在一实施例中,综合结果确定模块260还可以包括:
定位结果融合单元261,用于基于卡尔曼滤波原理,将所述第一定位结果与所述第二定位结果进行融合,得到所述移动设备的综合定位结果。
在一实施例中,定位结果融合单元261还可以用于将用于表征所述第一定位结果的第一高斯分布参数和用于表征所述第二定位结果的第二高斯分布参数相乘,得到用于表征综合定位结果的最终高斯分布参数。
在一实施例中,所述第一定位结果可以包括六自由度的定位信息,所述第二定位结果可以包括所述六自由度的定位信息,所述综合定位结果可以包括所述六自由度的定位信息。
值得说明的是,上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
本发明的定位装置的实施例可以应用在网络设备上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的,其中计算机程序用于执行上述图1~图4所示实施例提供的定位方法。从硬件层面而言,如图7所示,为本发明的定位设备的硬件结构图,除了图7所示的处理器、网络接口、内存以及非易失性存储器之外,所述设备通常还可以包括其他硬件,如负责处理报文的转发芯片等等;从硬件结构上来讲该设备还可能是分布式的设备,可能包括多个接口卡,以便在硬件层面进行报文处理的扩展。另一方面,本申请还提供了一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序用于执行上述图1~图4所示实施例提供的定位方法。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (10)

1.一种定位方法,其特征在于,包括:
获取移动设备在目标环境下采集的相邻两帧图像;
将所述两帧图像中后采集的图像输入到第一深度学习模型中,得到所述移动设备的第一定位结果,以及,基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果;
基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
2.根据权利要求1所述的方法,其特征在于,所述第一深度学习模型根据以下步骤训练得到:
获取目标环境的多帧样本图像;
确定每帧所述样本图像对应的定位结果;
将所述多帧样本图像以及每帧所述样本图像对应的定位结果作为训练集,训练第一深度学习模型。
3.根据权利要求1所述的方法,其特征在于,所述基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果,包括:
将所述两帧图像输入第二深度学习模型中,得到所述移动设备的动作预估结果;
基于所述动作预估结果和所述移动设备的上次综合定位结果,确定所述移动设备当前的第二定位结果。
4.根据权利要求3所述的方法,其特征在于,所述第二深度学习模型根据以下步骤训练得到:
获取移动设备采集的目标环境下的连续多帧样本图像;
确定所述多帧样本图像中每相邻两帧样本图像对应的动作预估结果;
将所述多帧样本图像以及所述每相邻两帧样本图像对应的动作预估结果作为训练集,训练第二深度学习模型。
5.根据权利要求1所述的方法,其特征在于,所述基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果,包括:
基于卡尔曼滤波原理,将所述第一定位结果与所述第二定位结果进行融合,得到所述移动设备的综合定位结果。
6.根据权利要求5所述的方法,其特征在于,所述基于卡尔曼滤波原理,将所述第一定位结果与所述第二定位结果进行融合,得到所述移动设备的综合定位结果,包括:
将用于表征所述第一定位结果的第一高斯分布参数和用于表征所述第二定位结果的第二高斯分布参数相乘,得到用于表征综合定位结果的最终高斯分布参数。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述第一定位结果包括六自由度的定位信息,所述第二定位结果包括所述六自由度的定位信息,所述综合定位结果包括所述六自由度的定位信息。
8.一种定位装置,其特征在于,包括:
相邻图像获取模块,用于获取移动设备在目标环境下采集的相邻两帧图像;
第一结果获取模块,用于将所述两帧图像中后采集的图像输入到第一深度学习模型中,得到所述移动设备的第一定位结果;以及,第二结果确定模块,用于基于所述两帧图像和所述移动设备的上次综合定位结果,确定所述移动设备的第二定位结果;
综合结果确定模块,用于基于所述第一定位结果和所述第二定位结果确定所述移动设备的综合定位结果。
9.一种移动设备,其特征在于,包括:
处理器;
被配置为存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述权利要求1-7任一所述的定位方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-7任一所述的定位方法。
CN201810646527.XA 2018-06-21 2018-06-21 一种定位方法、装置及移动设备 Active CN110706194B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201810646527.XA CN110706194B (zh) 2018-06-21 2018-06-21 一种定位方法、装置及移动设备
US17/049,346 US20210248773A1 (en) 2018-06-21 2018-12-13 Positioning method and apparatus, and mobile device
PCT/CN2018/120775 WO2019242251A1 (zh) 2018-06-21 2018-12-13 一种定位方法、装置及移动设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810646527.XA CN110706194B (zh) 2018-06-21 2018-06-21 一种定位方法、装置及移动设备

Publications (2)

Publication Number Publication Date
CN110706194A true CN110706194A (zh) 2020-01-17
CN110706194B CN110706194B (zh) 2021-07-06

Family

ID=68983145

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810646527.XA Active CN110706194B (zh) 2018-06-21 2018-06-21 一种定位方法、装置及移动设备

Country Status (3)

Country Link
US (1) US20210248773A1 (zh)
CN (1) CN110706194B (zh)
WO (1) WO2019242251A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112556719A (zh) * 2020-11-27 2021-03-26 广东电网有限责任公司肇庆供电局 一种基于cnn-ekf的视觉惯性里程计实现方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050185824A1 (en) * 2004-02-24 2005-08-25 Lockheed Martin Missiles And Firecontrol - Orlando Method and system for improved unresolved target detection using multiple frame association
CN101404086A (zh) * 2008-04-30 2009-04-08 浙江大学 基于视频的目标跟踪方法及装置
CN101622652A (zh) * 2007-02-08 2010-01-06 行为识别系统公司 行为识别系统
CN106017695A (zh) * 2016-07-20 2016-10-12 上海航天控制技术研究所 基于运动状态估计的自适应红外非均匀性校正方法
CN107728175A (zh) * 2017-09-26 2018-02-23 南京航空航天大学 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法
CN108090921A (zh) * 2016-11-23 2018-05-29 中国科学院沈阳自动化研究所 单目视觉和imu融合的自适应室内定位方法
CN108151750A (zh) * 2017-12-13 2018-06-12 西华大学 定位方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
US11402213B2 (en) * 2016-03-30 2022-08-02 Intel Corporation Techniques for determining a current location of a mobile device
CN106780608B (zh) * 2016-11-23 2020-06-02 北京地平线机器人技术研发有限公司 位姿信息估计方法、装置和可移动设备
CN106780484A (zh) * 2017-01-11 2017-05-31 山东大学 基于卷积神经网络特征描述子的机器人帧间位姿估计方法
AU2018209336B2 (en) * 2017-01-23 2021-11-18 Oxford University Innovation Limited Determining the location of a mobile device
CN107014371A (zh) * 2017-04-14 2017-08-04 东南大学 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050185824A1 (en) * 2004-02-24 2005-08-25 Lockheed Martin Missiles And Firecontrol - Orlando Method and system for improved unresolved target detection using multiple frame association
WO2006135419A2 (en) * 2004-09-13 2006-12-21 Lockheed Martin Corporation A method and system for improved unresolved target detection using multiple frame association
CN101622652A (zh) * 2007-02-08 2010-01-06 行为识别系统公司 行为识别系统
CN101404086A (zh) * 2008-04-30 2009-04-08 浙江大学 基于视频的目标跟踪方法及装置
CN106017695A (zh) * 2016-07-20 2016-10-12 上海航天控制技术研究所 基于运动状态估计的自适应红外非均匀性校正方法
CN108090921A (zh) * 2016-11-23 2018-05-29 中国科学院沈阳自动化研究所 单目视觉和imu融合的自适应室内定位方法
CN107728175A (zh) * 2017-09-26 2018-02-23 南京航空航天大学 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法
CN108151750A (zh) * 2017-12-13 2018-06-12 西华大学 定位方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
于晓涵等: "改进的特征匹配雷达视频运动目标跟踪算法", 《海军航空工程学院学报》 *
张雪: "基于主动轮廓模型的视频人体检测与跟踪", 《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112556719A (zh) * 2020-11-27 2021-03-26 广东电网有限责任公司肇庆供电局 一种基于cnn-ekf的视觉惯性里程计实现方法
CN112556719B (zh) * 2020-11-27 2022-01-21 广东电网有限责任公司肇庆供电局 一种基于cnn-ekf的视觉惯性里程计实现方法

Also Published As

Publication number Publication date
US20210248773A1 (en) 2021-08-12
CN110706194B (zh) 2021-07-06
WO2019242251A1 (zh) 2019-12-26

Similar Documents

Publication Publication Date Title
CN107845114B (zh) 地图的构建方法、装置及电子设备
US10247556B2 (en) Method for processing feature measurements in vision-aided inertial navigation
CN108318043A (zh) 用于更新电子地图的方法、装置和计算机可读存储介质
CN109059907B (zh) 轨迹数据处理方法、装置、计算机设备和存储介质
CN110058279B (zh) 一种确定已行驶路径的方法、装置、设备及存储介质
CN112284400B (zh) 车辆的定位方法、装置、电子设备及计算机可读存储介质
CN112556696B (zh) 一种对象定位方法、装置、计算机设备以及存储介质
WO2020039937A1 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
CN113034594A (zh) 位姿优化方法、装置、电子设备及存储介质
WO2014205757A1 (en) Systems and methods for generating accurate sensor corrections based on video input
CN108734325A (zh) 规划路径的评价方法及装置
CN112118537B (zh) 一种利用图片实现移动轨迹估算的方法及相关装置
AU2013237211B2 (en) Generating navigation data
CN114120301A (zh) 一种位姿确定方法、装置及设备
CN115326084A (zh) 车辆定位方法、装置、计算机设备、存储介质
CN110706194B (zh) 一种定位方法、装置及移动设备
WO2020135183A1 (zh) 点云地图的构建方法、装置、计算机设备和存储介质
CN111862150A (zh) 图像跟踪的方法、装置、ar设备和计算机设备
JP2015158799A (ja) 時空間クラスタリング処理装置、方法及びプログラム
CN113570716A (zh) 云端三维地图构建方法、系统及设备
CN116958452A (zh) 三维重建方法和系统
Irmisch et al. Simulation framework for a visual-inertial navigation system
CN112380314B (zh) 路网信息的处理方法和装置、存储介质及电子设备
CN113034538B (zh) 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备
Quack et al. Infrastructure-based tracking of road users in urban intersections for partially available, variable-delay sensor data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant