CN109584299B - 一种定位方法、定位装置、终端及存储介质 - Google Patents

一种定位方法、定位装置、终端及存储介质 Download PDF

Info

Publication number
CN109584299B
CN109584299B CN201811346873.2A CN201811346873A CN109584299B CN 109584299 B CN109584299 B CN 109584299B CN 201811346873 A CN201811346873 A CN 201811346873A CN 109584299 B CN109584299 B CN 109584299B
Authority
CN
China
Prior art keywords
information
relative
frame image
absolute
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811346873.2A
Other languages
English (en)
Other versions
CN109584299A (zh
Inventor
林义闽
刘兆祥
廉士国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cloudminds Shanghai Robotics Co Ltd
Original Assignee
Cloudminds Shenzhen Robotics Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cloudminds Shenzhen Robotics Systems Co Ltd filed Critical Cloudminds Shenzhen Robotics Systems Co Ltd
Priority to CN201811346873.2A priority Critical patent/CN109584299B/zh
Publication of CN109584299A publication Critical patent/CN109584299A/zh
Application granted granted Critical
Publication of CN109584299B publication Critical patent/CN109584299B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明实施例涉及计算机视觉技术领域,公开了一种定位方法、定位装置、终端及存储介质。本发明中,将第一帧图像和第二帧图像输入已知结构的网络模型;通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息;通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息;根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息。使得能够基于深度学习,获得准确的定位结果。

Description

一种定位方法、定位装置、终端及存储介质
技术领域
本发明实施例涉及计算机视觉技术领域,特别涉及一种定位方法、定位装置、终端及存储介质。
背景技术
传统的视觉定位方法一般分为视觉即时定位与地图构建(vSLAM,VisualSimultaneous Localization And Mapping)和交换结构模块(switch fabric module,SFM)等定位方法,但这些传统的定位方法存在的主要问题是无法适应弱纹理和光照等变化场景。针对这个问题,人们逐渐研发出了基于深度学习的定位方法,基于深度学习的定位方法通常分为绝对定位和相对定位两种方式。
发明人发现现有技术中至少存在如下问题:基于深度学习的绝对定位方法往往利用一帧图像进行定位,因此难以得到精度较高的位置信息,而深度学习中的相对定位方法仅仅利用多帧之间的位置变化进行定位,因此在长距离定位中累计误差会较大,因此现有技术中的基于深度学习的定位方法,依然无法满足人们对定位精度的要求。
发明内容
本申请实施方式的目的在于提供一种定位方法、定位装置、终端及存储介质,使得能够基于深度学习,获得准确的定位结果。
为解决上述技术问题,本申请实施方式提供了一种定位方法,包括以下步骤:将第一帧图像和第二帧图像输入已知结构的网络模型,其中,第一帧图像为当前时刻所获得的图像,第二帧图像为当前时刻之前预设时间范围内所获得的图像,其中,终端在预设时间范围内位于同一场景中;通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息;通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息;根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息。
本申请实施方式还提供了一种定位装置,包括:输入模块,用于将第一帧图像和第二帧图像输入已知结构的网络模型,其中,第一帧图像为当前时刻所获得的图像,第二帧图像为当前时刻之前预设时间范围内所获得的图像,其中,终端在预设时间范围内在同一场景中运动;第一获取模块,用于通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息;第二获取模块,用于通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息;第三获取模块,用于根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息。
本申请实施方式还提供了一种终端,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请任意方法实施例中涉及的定位方法。
本申请实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现本申请任意方法实施例中涉及的定位方法。
本申请实施方式相对于现有技术而言,通过网络模型获得当前时刻所获得的图像相对于同一场景中历史时刻所获得图像的相对位姿信息,以及当前时刻所获的图像的绝对位姿信息,从而结合相对位姿信息以及绝对位姿信息实现对终端当前时刻位置的准确定位。
另外,网络模型包括相对网络结构和绝对网络结构;其中,相对网络结构包括卷积神经网络结构和第一递归卷积神经网络结构,绝对网络结构包括卷积神经网络结构和第二递归卷积神经网络结构。
另外,将第一帧图像和第二帧图像输入已知结构的网络模型之前,还包括:通过样本图像对网络模型进行训练,确定出网络模型。该实现中,在通过网络结构确定终端当前的位置信息之前,首先对网络模型进行训练,从而使通过训练后的网络模型所确定的位置信息更加准确。
另外,通过样本图像对网络模型进行训练,确定出网络模型,具体包括:通过样本图像对相对网络结构进行训练,获得相对网络结构的参数;通过样本图像对绝对网络结构进行训练,获得绝对网络结构的路标描述信息,其中,路标描述信息用于表示不同场景下的样本图像的位置描述信息;根据相对网络结构的参数和绝对网络的路标描述信息确定出网络模型;其中,样本图像的个数至少为两个,并且每一个样本图像的位置信息,以及任意两个样本相对位置信息都是已知的。该实现中,在通过样本图像对网络模型进行训练时,既包括对相对网络结构的训练过程,同时也包括对绝对网络结构的训练过程,从而使训练所获得的网络模型在相对信息确定和绝对信息确定方面都能够获得准确的定位结果。
另外,通过样本图像对相对网络结构进行训练,获得相对网络结构的参数,具体包括:通过样本图像对相对网络结构进行训练,获得任意两个样本图像的预测相对位置;计算任意两个样本图像的相对位置信息与预测相对位置信息差值的绝对值,获得任意两个样本图像的相对位姿约束值;将样本图像中任意两个样本图像的相对位姿约束值相加求误差最小值,获得相对网络结构的参数。
另外,通过样本图像对绝对网络结构进行训练,获得绝对网络结构的路标描述信息,具体包括:通过输入样本图像对绝对网络结构进行训练,获得每一个样本图像的预测位置信息;计算每一个样本图像的位置信息与预测位置信息差值的绝对值,获得每一个样本图像的位姿约束值;将样本图像中每一个样本图像的位姿约束值相加求误差最小值,获得绝对网络结构的路标描述信息。
另外,通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息,具体包括:通过参数已知的相对网络模型分别提取第一帧图像的特征信息和第二帧图像的特征信息;根据第一帧图像的特征信息和第二帧图像的特征信息获得差异特征信息;根据差异特征信息和已知的运动阈值,获得相对位姿信息,其中,相对位姿信息用于表示终端的运动趋势。该实现中,将训练所获得的参数已知的相对网络模型,分别提取出第一帧图像和第二帧图像的特征信息,从而确定出与历史运动轨迹有关的相对位姿信息,在进行当前时刻的位置信息确定时,将历史运动信息考虑进去,从而使最终的定位结果更加准确。
另外,通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息,具体包括:将第一帧图像的特征信息与路标描述信息进行匹配,确定出匹配度最高的路标描述信息,并确定出与匹配度最高的路标描述信息对应的路标;根据路标确定绝对位姿信息。该实现中,将第一帧图像的特征信息与绝对网络结构中的路标描述信息的匹配结果,确定出对应的路标描述信息,从而确定出当前时刻终端所对应的路标,根据路标可以确定出终端大体所处场景中的位置信息即绝对位置信息。
另外,根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息,具体包括:将相对位姿信息与绝对位姿信息进行求和处理,并根据求和结果获得当前时刻的位置信息。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本申请第一实施例中定位方法的流程图;
图2是本申请第一实施例中网络模型的结构图;
图3是本申请第二实施例中定位方法的流程图;
图4是本申请第二实施例中一个具体实现中任意两个样本图像的预测相对位置示意图;
图5是本申请第二实施例中另一个具体实现中绝对网络训练的示意图;
图6是本申请第三实施例中定位装置的方框示意图;
图7是本申请第四实施例中定位装置的方框示意图;
图8是本申请第五实施例中终端的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本申请各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本申请的第一实施方式涉及一种定位方法,应用于终端或云端。终端可以是导盲头盔、智能机器人、无人驾驶车辆等设备。云端与终端通信连接,为终端提供用于定位的地图或直接为终端提供定位结果。本实施方式以终端为例说明定位方法的执行过程,云端执行该定位方法的过程可以参考本申请实施例的内容。该定位方法的具体流程如图1所示,包括以下步骤:
步骤101,将第一帧图像和第二帧图像输入已知结构的网络模型。
具体的说,在本实施例中,第一帧图像为当前时刻所获得的图像,第二帧图像为当前时刻之前预设范围内所获得的图像,并且,终端在预设时间范围内位于同一场景中。
其中,本实施方式中的网络模型的结构如图2所示,本实施方式的网络模型采用的是深度残差网络(Deep residual network,ResNet),如图中虚线框所示,网络模型包括相对网络结构和绝对网络结构,其中,相对网络结构包括卷积神经网络(ConvolutionalNeural Networks,CNN)结构和第一递归卷积神经网络结构(Recurrent ConvolutionalNeural Network,RCNN)1,绝对网络结构包括CNN和第二递归卷积神经网络结构RCNN2。并且,CNN由ResNet的第1至第3层网络构成,RCNN1由ResNet的第4至第5层网络以及两个长短期记忆网络(Long Short-Term Memory,LSTM)构成,并与输出层fc1全连接,RCNN2由ResNet的第4至第5层网络构成以及一个LSTM构成,并与输出层fc2全连接。图2中所示的fc3层分别与输出层fc1和输出层fc2连接用于输出位置信息,fc3层再分离出fc4层和fc5层,并通过fc4层和fc5层获取位置信息中更详细的平移信息以及四元素信息,平移信息即从位置信息中所提取出的水平面上移动的信息,四元素信息即立体空间中上下旋转和左右旋转的信息。
需要说明的是,本实施方式中的第一帧图像和第二图像是终端在移动过程中通过摄像装置所实时拍摄的图像,并且当终端在长时间移动的过程中可能会处于不同的场景中,并且会拍摄到不同场景中的多帧图像,而为了实现对终端的准确定位,本实施方式中所获取的第一帧图像和第二帧图像的间隔时间比较短,所以可以认为终端所获取的第一帧图像和第二帧图像是同一场景中的图像,例如,位于同一路段中的图像或位于同一房间中的图像等。
步骤102,通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息。
具体的说,在本实施方式中,通过参数已知的相对网络模型分别提取第一帧图像的特征信息和第二帧图像的特征信息;根据第一帧图像的特征信息和第二帧图像的特征信息获得差异特征信息;根据差异特征信息和已知的运动阈值,获得相对位姿信息,其中,相对位姿信息用于表示终端的运动趋势。
在一个具体实现中,在相对网络模型的参数已知的情况下,当输入第一帧图像和第二帧图像时,可以首先通过相对网络模型中的CNN部分分别提取出第一帧图像和第二帧图像的特征信息,例如,当相对网络模型的参数为θ,并且相对网络模型确定的提取特征的函数为y=θx,则当x1为第一帧图像时,则提取的第一帧图像的特征信息为y1;当x2为第二帧图像时,则提取的第二帧图像的特征信息为y2。通过相对网络模型中的RCNN1部分根据第一帧图像的特征信息y1以及第二帧图像的特征信息y2获得差异特征信息Y=|y1-y2|,然后根据Y和已知的运动阈值,通过差异特征信息与运动阈值的对应关系,获得相对位姿信息W。例如,差异信息差异特征信息可以包括水平方向上的差异特征信息Y1和竖直方向上的差异特征信息Y2,而运动阈值可以包括第一运动阈值和第二运动阈值,当确定Y1大于第一运动阈值时,则说明终端水平向左运动,获得水平相对位姿信息Wx;当确定Y2大于第二运动阈值时,则说明终端竖直方向想下运动,获得竖直相对位姿信息Wy,从而获得最终的相对位姿信息W=(Wx Wy)。因为,当前时刻的位姿信息是与历史运动轨迹有关的,所以相对位姿信息可以准确的表示出在同一场景中终端的运动趋势,即相对于前一时刻或前多个时刻的运动偏差。
步骤103,通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息。
具体的说,在本实施方式中,将第一帧图像的特征信息与路标描述信息进行匹配,确定出匹配度最高的路标描述信息,并确定出与匹配度最高的路标描述信息对应的路标;根据路标确定所述绝对位姿信息。
其中,在确定当前时刻的绝对位姿信息时,是根据当前时刻所获取的图像直接获得的,并没有参考相邻时刻的图像信息,因此,通过绝对位置定位主要确定的终端所处的场景的位置信息。并且路标描述信息是绝对网络结构中所确定的,不同的图像对应着不同的路标描述信息,而路标描述信息可以用于表示不同场景下的图像的位置描述信息。
在一个具体实现中,通过绝对网络模型中的CNN部分已经提取出第一帧图像的特征信息y1,通过绝对网络模型中的RCNN2部分将第一帧图像的特征信息y1与已经确定的路标描述信息进行匹配,确定出匹配度最高的路标描述信息S1,从而可以进一步确定出与匹配度最高的路标描述信息对应的路标s1,根据该路标所确定的位置就可以直接确定出绝对位姿信息V。
步骤104,根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息。
具体的说,在本实施方式中,将相对位姿信息与绝对位姿信息进行求和处理,并根据求和结果获得当前时刻的位置信息。
在一个具体实现中,相对位姿信息W表示的是终端当前时刻相对于历史运动轨迹的运动偏差,而绝对位姿信息V表示的是仅根据当前时刻采集的图像所获取的所在场景中的位姿,因此所确定的当前时刻的位置信息Q=W+V,既考虑了自身的运动情况,同时又参考了历史运动轨迹信息,从而使最终所确定的当前时刻的位置信息更加准确。
与现有技术相比,本实施方式提供的定位方法,通过网络模型获得当前时刻所获得的图像相对于同一场景中历史时刻所获得图像的相对位姿信息,以及当前时刻所获的图像的绝对位姿信息,从而结合相对位姿信息以及绝对位姿信息实现对终端当前时刻位置的准确定位。
本申请的第二实施方式涉及一种定位方法。本实施例在第一实施例的基础上做了进一步改进,具体改进之处为:在将第一帧图像和第二帧图像输入已知结构的网络模型之前,增加了通过样本图像对网络模型进行训练,确定出网络模型的步骤。本实施例中的定位方法的流程如图3所示。具体的说,在本实施例中,包括步骤201至步骤205,其中步骤202至步骤205与第一实施方式中的步骤101至步骤104大致相同,此处不再赘述,下面主要介绍不同之处,未在本实施方式中详尽描述的技术细节,可参见第一实施例所提供的定位方法,此处不再赘述。
步骤201,通过样本图像对网络模型进行训练,确定出网络模型。
具体的说,在本实施方式中,样本图像的个数至少为两个,并且每一个样本图像的位置信息,以及任意两个样本相对位置信息都是已知的。并且,通过样本图像对网络模型进行训练,具体包括两个子步骤:
子步骤2011,通过所述样本图像对相对网络结构进行训练,获得相对网络结构的参数。
具体的说,在本实施方式中,通过样本图像对相对网络结构进行训练,获得任意两个样本图像的预测相对位置信息;计算任意两个样本图像的相对位置信息与预测相对位置信息差值的绝对值,获得任意两个样本图像的相对位姿约束值;将样本图像中任意两个样本图像的相对位姿约束值相加求误差最小值,获得相对网络结构的参数。
在一个具体实现中,如图4所示,以5帧相邻的样本图像为例进行说明,标示出了任意两个样本图像的预测相对位置示意图,Pij表示表示的是第i帧和第j帧之间的预测相对位置,其中i与j的取值范围分别是0至4,而
Figure BDA0001863969740000071
表示第i帧和第j帧之间的相对位置信息,并且相对位置信息是已知的,可以获得任意两个样本图像的相对位姿约束值分别是:
Figure BDA0001863969740000072
Figure BDA0001863969740000073
Figure BDA0001863969740000074
从而可以获得相对网络结构的参数:
Figure BDA0001863969740000075
其中,θ表示网络结构的参数,N表示样本图像的数量,i表示每一个样本图像的帧序号,k表示相对位姿约束值的序列号。
子步骤2012,通过样本图像对绝对网络结构进行训练,获得绝对网络结构的路标描述信息。
具体的说,在本实施方式中,通过输入样本图像对绝对网络结构进行训练,获得每一个样本图像的预测位置信息;计算每一个样本图像的位置信息与预测位置信息差值的绝对值,获得每一个样本图像的位姿约束值;将样本图像中每一个样本图像的位姿约束值相加求误差最小值,获得绝对网络结构的路标描述信息。
在另一个具体实现中,如图5所示,为绝对网络训练的示意图,以n个场景的样本图像为例分别输入绝对网络结构中,因此输入的不同场景q=[1,n],其中,q表示每一个场景的序列号,并且每一个场景中的样本图像的个数至少包括两个。以第q个场景的路标描述信息计算方式为例进行说明:假设第q个场景中有M个样本,则通过输入样本样本图像对绝对网络结构进行训练,获得每一个样本图像的预测位置信息,例如Pl表示第l帧样本图像的预测位置信息,而
Figure BDA0001863969740000076
表示第l帧样本图像的位置信息,该值为已知量,可以得到第l帧样本图像的位姿约束值
Figure BDA0001863969740000077
从而可以得到第q个场景的路标描述信息为
Figure BDA0001863969740000078
并且通过输入不同场景中的样本图像,可以分别得到如图5所示的S1至Sn。
通过子步骤2011获得的相对网络结构的参数以及子步骤2012所获得的绝对网络的路标描述信息就可以确定出网络模型,从而完成对网络模型的训练过程。
在步骤201之后,执行步骤202至步骤205。
与现有技术相比,本实施方式提供的本实施方式提供的定位方法,通过网络模型获得当前时刻所获得的图像相对于同一场景中历史时刻所获得图像的相对位姿信息,以及当前时刻所获的图像的绝对位姿信息,从而结合相对位姿信息以及绝对位姿信息实现对终端当前时刻位置的准确定位。并且在通过样本图像对网络模型进行训练时,既包括对相对网络结构的训练过程,同时也包括对绝对网络结构的训练过程,从而使训练所获得的网络模型在相对信息确定和绝对信息确定方面都能够获得准确的定位结果。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本申请第三实施方式涉及一种定位装置,具体结构如如图6所示。
如图6所示,定位装置装置包括:输入模块301、第一获取模块302、第二获取模块303和第三获取模块304。
其中,输入模块301,用于将第一帧图像和第二帧图像输入已知结构的网络模型。
第一获取模块302,用于通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息。
第二获取模块303,用于通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息。
第三获取模块304,用于根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息。
不难发现,本实施方式为与第一实施方式相对应的装置实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本申请第四实施方式涉及一种定位装置。该实施方式与第三实施方式大致相同,具体结构如图7所示。其中,主要改进之处在于:第四实施方式在第三实施方式中的基础上增加了训练模块300。
其中,训练模块300,用于通过样本图像对网络模型进行训练,确定出网络模型。
输入模块301,用于将第一帧图像和第二帧图像输入已知结构的网络模型。
第一获取模块302,用于通过网络模型对第一帧图像和第二帧图像进行相对位置定位,获得相对位姿信息。
第二获取模块303,用于通过网络模型对第一帧图像进行绝对位置定位,获得绝对位姿信息。
第三获取模块304,用于根据相对位姿信息和绝对位姿信息获得当前时刻的位置信息。
不难发现,本实施方式为与第二实施方式相对应的装置实施例,本实施方式可与第二实施方式互相配合实施。第二实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第二实施方式中。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本申请的创新部分,本实施方式中并没有将与解决本申请所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
本申请第五实施方式涉及一种终端,如图8所示,包括至少一个处理器501;以及,与至少一个处理器501通信连接的存储器502;其中,存储器502存储有可被至少一个处理器501执行的指令,指令被至少一个处理器501执行,以使至少一个处理器501能够执行上述实施例中的定位方法。
本实施例中,处理器501以中央处理器(Central Processing Unit,CPU)为例,存储器502以可读写存储器(Random Access Memory,RAM)为例。处理器501、存储器502可以通过总线或者其他方式连接,图8中以通过总线连接为例。存储器502作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中实现定位方法的程序就存储于存储器502中。处理器501通过运行存储在存储器502中的非易失性软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述定位方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储选项列表等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至外接设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一个或者多个程序模块存储在存储器502中,当被一个或者多个处理器501执行时,执行上述任意方法实施例中的定位方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果,未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请的第六实施方式涉及一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,该计算机程序被处理器执行时能够实现本申请任意方法实施例中涉及的定位方法。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本申请的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (12)

1.一种定位方法,其特征在于,应用于终端,包括:
将第一帧图像和第二帧图像输入已知结构的网络模型,其中,所述第一帧图像为当前时刻所获得的图像,所述第二帧图像为当前时刻之前预设时间范围内所获得的图像,其中,所述终端在所述预设时间范围内位于同一场景中;
通过所述网络模型对所述第一帧图像和所述第二帧图像进行相对位置定位,获得相对位姿信息;
通过所述网络模型对所述第一帧图像进行绝对位置定位,获得绝对位姿信息;
根据所述相对位姿信息和所述绝对位姿信息获得当前时刻的位置信息。
2.根据权利要求1所述的定位方法,其特征在于,所述网络模型包括相对网络结构和绝对网络结构;
其中,所述相对网络结构包括卷积神经网络结构和第一递归卷积神经网络结构,所述绝对网络结构包括所述卷积神经网络结构和第二递归卷积神经网络结构。
3.根据权利要求2所述的定位方法,其特征在于,所述将第一帧图像和第二帧图像输入已知结构的网络模型之前,还包括:
通过样本图像对所述网络模型进行训练,确定出所述网络模型。
4.根据权利要求3所述的定位方法,其特征在于,所述通过样本图像对所述网络模型进行训练,确定出所述网络模型,具体包括:
通过所述样本图像对所述相对网络结构进行训练,获得所述相对网络结构的参数;
通过所述样本图像对所述绝对网络结构进行训练,获得所述绝对网络结构的路标描述信息,其中,所述路标描述信息用于表示不同场景下的所述样本图像的位置描述信息;
根据所述相对网络结构的参数和所述绝对网络的路标描述信息确定出所述网络模型;
其中,所述样本图像的个数至少为两个,并且每一个所述样本图像的位置信息,以及任意两个所述样本的相对位置信息都是已知的。
5.根据权利要求4所述的定位方法,其特征在于,所述通过所述样本图像对所述相对网络结构进行训练,获得所述相对网络结构的参数,具体包括:
通过所述样本图像对所述相对网络结构进行训练,获得任意两个所述样本图像的预测相对位置信息;
计算任意两个所述样本图像的相对位置信息与预测相对位置信息差值的绝对值,获得任意两个所述样本图像的相对位姿约束值;
将所述样本图像中任意两个所述样本图像的相对位姿约束值相加并求误差最小值,获得所述相对网络结构的参数。
6.根据权利要求5所述的定位方法,其特征在于,所述通过所述样本图像对所述绝对网络结构进行训练,获得所述绝对网络结构的路标描述信息,具体包括:
通过所述输入样本图像对所述绝对网络结构进行训练,获得每一个所述样本图像的预测位置信息;
计算每一个所述样本图像的位置信息与预测位置信息差值的绝对值,获得每一个所述样本图像的位姿约束值;
将所述样本图像中每一个所述样本图像的位姿约束值相加并求误差最小值,获得所述绝对网络结构的路标描述信息。
7.根据权利要求6所述的定位方法,其特征在于,所述通过所述网络模型对所述第一帧图像和所述第二帧图像进行相对位置定位,获得相对位姿信息,具体包括:
通过参数已知的所述相对网络模型分别提取所述第一帧图像的特征信息和所述第二帧图像的特征信息;
根据所述第一帧图像的特征信息和所述第二帧图像的特征信息获得差异特征信息;
根据所述差异特征信息和已知的运动阈值,获得所述相对位姿信息,其中,所述相对位姿信息用于表示所述终端的运动趋势。
8.根据权利要求7所述的定位方法,其特征在于,所述通过所述网络模型对所述第一帧图像进行绝对位置定位,获得绝对位姿信息,具体包括:
将所述第一帧图像的特征信息与所述路标描述信息进行匹配,确定出匹配度最高的所述路标描述信息,并确定出与所述匹配度最高的所述路标描述信息对应的路标;
根据所述路标确定所述绝对位姿信息。
9.根据权利要求1所述的定位方法,其特征在于,所述根据所述相对位姿信息和所述绝对位姿信息获得当前时刻的位置信息,具体包括:
将所述相对位姿信息与所述绝对位姿信息进行求和处理,并根据求和结果获得所述当前时刻的位置信息。
10.一种定位装置,其特征在于,包括:
输入模块,用于将第一帧图像和第二帧图像输入已知结构的网络模型,其中,所述第一帧图像为当前时刻所获得的图像,所述第二帧图像为当前时刻之前预设时间范围内所获得的图像,其中,终端在所述预设时间范围内在同一场景中运动;
第一获取模块,用于通过所述网络模型对所述第一帧图像和所述第二帧图像进行相对位置定位,获得相对位姿信息;
第二获取模块,用于通过所述网络模型对所述第一帧图像进行绝对位置定位,获得绝对位姿信息;
第三获取模块,用于根据所述相对位姿信息和所述绝对位姿信息获得当前时刻的位置信息。
11.一种终端,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至9任一项所述的定位方法。
12.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至9任一项所述的定位方法。
CN201811346873.2A 2018-11-13 2018-11-13 一种定位方法、定位装置、终端及存储介质 Active CN109584299B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811346873.2A CN109584299B (zh) 2018-11-13 2018-11-13 一种定位方法、定位装置、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811346873.2A CN109584299B (zh) 2018-11-13 2018-11-13 一种定位方法、定位装置、终端及存储介质

Publications (2)

Publication Number Publication Date
CN109584299A CN109584299A (zh) 2019-04-05
CN109584299B true CN109584299B (zh) 2021-01-05

Family

ID=65922325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811346873.2A Active CN109584299B (zh) 2018-11-13 2018-11-13 一种定位方法、定位装置、终端及存储介质

Country Status (1)

Country Link
CN (1) CN109584299B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110081862B (zh) * 2019-05-07 2021-12-24 达闼科技(北京)有限公司 一种对象的定位方法、定位装置、电子设备和可存储介质
CN110349211B (zh) * 2019-06-18 2022-08-30 达闼机器人股份有限公司 图像定位的方法和装置、存储介质
CN110532410B (zh) * 2019-08-30 2022-06-21 上海商汤临港智能科技有限公司 相机定位及神经网络的训练方法和装置
CN111046125A (zh) * 2019-12-16 2020-04-21 视辰信息科技(上海)有限公司 一种视觉定位方法、系统及计算机可读存储介质
CN112907663A (zh) * 2021-02-03 2021-06-04 阿里巴巴集团控股有限公司 定位方法、计算机程序产品、装置及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN106548475A (zh) * 2016-11-18 2017-03-29 西北工业大学 一种适用于空间非合作自旋目标运动轨迹的预测方法
CN106780608A (zh) * 2016-11-23 2017-05-31 北京地平线机器人技术研发有限公司 位姿信息估计方法、装置和可移动设备
CN106846497A (zh) * 2017-03-07 2017-06-13 百度在线网络技术(北京)有限公司 应用于终端的呈现三维地图的方法和装置
CN107145578A (zh) * 2017-05-08 2017-09-08 深圳地平线机器人科技有限公司 地图构建方法、装置、设备和系统
CN107330934A (zh) * 2017-05-23 2017-11-07 上海交通大学 低维度的集束调整计算方法与系统
CN108765479A (zh) * 2018-04-04 2018-11-06 上海工程技术大学 利用深度学习对视频序列中单目视图深度估计优化方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7423666B2 (en) * 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
DE112006001314T5 (de) * 2005-05-23 2008-04-10 National University Corporation Nara Institute of Science and Technology, Ikoma Zustandsabschätzvorrichtung, Zustandsabschätzverfahren, Zustandsabschätz-Computerprogramm und Computer-lesbarer Speicherträger
US8896531B2 (en) * 2008-04-24 2014-11-25 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
KR101782057B1 (ko) * 2010-05-03 2017-09-26 삼성전자주식회사 지도 생성 장치 및 방법
CN107741234B (zh) * 2017-10-11 2021-10-19 深圳勇艺达机器人有限公司 一种基于视觉的离线地图构建及定位方法
CN108534782B (zh) * 2018-04-16 2021-08-17 电子科技大学 一种基于双目视觉系统的地标地图车辆即时定位方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN106548475A (zh) * 2016-11-18 2017-03-29 西北工业大学 一种适用于空间非合作自旋目标运动轨迹的预测方法
CN106780608A (zh) * 2016-11-23 2017-05-31 北京地平线机器人技术研发有限公司 位姿信息估计方法、装置和可移动设备
CN106846497A (zh) * 2017-03-07 2017-06-13 百度在线网络技术(北京)有限公司 应用于终端的呈现三维地图的方法和装置
CN107145578A (zh) * 2017-05-08 2017-09-08 深圳地平线机器人科技有限公司 地图构建方法、装置、设备和系统
CN107330934A (zh) * 2017-05-23 2017-11-07 上海交通大学 低维度的集束调整计算方法与系统
CN108765479A (zh) * 2018-04-04 2018-11-06 上海工程技术大学 利用深度学习对视频序列中单目视图深度估计优化方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Camera Relocalization by Computing Pairwise Relative PosesUsing Convolutional Neural Network;Zakaria Laskar 等;《2017 IEEE International Conference on Computer Vision Workshops》;20180123;第920-929页 *
Exploring Convolutional Networks for End-to-End Visual Servoing;Aseem Saxena 等;《2017 IEEE International Conference on Robotics and Automation(ICRA)》;20170603;第3817-3823页 *
VidLoc:A Deep Spatio-Temporal Model for 6-DoF Video-Clip Relocalization;Ronald Clark 等;《arXiv:1702.06521v2》;20170731;第1-9页 *
基于深度学习的相机相对姿态估计;张林箭;《中国优秀硕士学位论文全文数据库信息科技辑》;20180815;第I138-702页正文第10页第2段、第57页第1段-第59页第1段、图4.9、第60页第2段 *

Also Published As

Publication number Publication date
CN109584299A (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN109584299B (zh) 一种定位方法、定位装置、终端及存储介质
US10719940B2 (en) Target tracking method and device oriented to airborne-based monitoring scenarios
CN107481292B (zh) 车载摄像头的姿态误差估计方法和装置
CN107274445B (zh) 一种图像深度估计方法和系统
WO2020182117A1 (zh) 视差图获取方法、装置和设备及控制系统和存储介质
KR102472767B1 (ko) 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
CN109658418A (zh) 场景结构的学习方法、装置及电子设备
CN108648216B (zh) 一种基于光流与深度学习的视觉里程计实现方法和系统
CN110232418B (zh) 一种语义识别方法、终端及计算机可读存储介质
CN111696110B (zh) 场景分割方法及系统
CN111985300B (zh) 自动驾驶动态目标定位方法、装置、电子设备及存储介质
CN110009675A (zh) 生成视差图的方法、装置、介质及设备
CN114723955A (zh) 图像处理方法、装置、设备和计算机可读存储介质
WO2020051270A1 (en) Unsupervised depth prediction neural networks
CN109543634B (zh) 定位过程中的数据处理方法、装置、电子设备和存储介质
CN111179330A (zh) 一种基于卷积神经网络的双目视觉场景深度估计方法
CN110673607B (zh) 动态场景下的特征点提取方法、装置、及终端设备
CN116469079A (zh) 一种自动驾驶bev任务学习方法及相关装置
CN115063447A (zh) 一种基于视频序列的目标动物运动追踪方法及相关设备
CN111489394A (zh) 物体姿态估计模型训练方法、系统、装置及介质
CN113223064A (zh) 一种视觉惯性里程计尺度的估计方法和装置
CN111476062A (zh) 车道线检测方法、装置、电子设备及驾驶系统
CN116259040A (zh) 识别交通标志的方法、装置和电子设备
CN116009581A (zh) 输电线路的无人机巡检方法、无人机控制终端及存储介质
Zhou et al. An anti-occlusion tracking system for UAV imagery based on Discriminative Scale Space Tracker and Optical Flow

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210207

Address after: 200245 2nd floor, building 2, no.1508, Kunyang Road, Minhang District, Shanghai

Patentee after: Dalu Robot Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Patentee before: Shenzhen Qianhaida Yunyun Intelligent Technology Co.,Ltd.

TR01 Transfer of patent right
CP03 Change of name, title or address

Address after: 200245 Building 8, No. 207, Zhongqing Road, Minhang District, Shanghai

Patentee after: Dayu robot Co.,Ltd.

Address before: 200245 2nd floor, building 2, no.1508, Kunyang Road, Minhang District, Shanghai

Patentee before: Dalu Robot Co.,Ltd.

CP03 Change of name, title or address