CN110785777B - 确定可移动的设备的位置 - Google Patents

确定可移动的设备的位置 Download PDF

Info

Publication number
CN110785777B
CN110785777B CN201880020542.1A CN201880020542A CN110785777B CN 110785777 B CN110785777 B CN 110785777B CN 201880020542 A CN201880020542 A CN 201880020542A CN 110785777 B CN110785777 B CN 110785777B
Authority
CN
China
Prior art keywords
neural network
images
location
determining
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880020542.1A
Other languages
English (en)
Other versions
CN110785777A (zh
Inventor
王森
罗纳德·克拉克
尼基·特里戈尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oxford University Innovation Ltd
Original Assignee
Oxford University Innovation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB1703005.7A external-priority patent/GB201703005D0/en
Application filed by Oxford University Innovation Ltd filed Critical Oxford University Innovation Ltd
Publication of CN110785777A publication Critical patent/CN110785777A/zh
Application granted granted Critical
Publication of CN110785777B publication Critical patent/CN110785777B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种确定包括摄像头的可移动的设备的位置的计算机执行的方法。该方法包括以下步骤:使用摄像头捕获一段时间内的图像序列;对于来自图像序列的连续图像对,使用第一神经网络确定表明设备的运动的特征,该设备的运动在捕获该图像对的第一图像的时间与捕获该图像对的第二图像的时间之间;对于连续图像序列,使用第二神经网络从由第一神经网络确定的特征确定表明设备的位置的特征;以及对于连续图像序列,从由第二神经网络确定的特征确定设备的位置。

Description

确定可移动的设备的位置
技术领域
本发明涉及确定可移动的设备的位置。更具体地但非排他地,本发明涉及使用神经网络从由可移动的设备的摄像头捕获的图像确定可移动的设备的位置。
本发明特别地但非排他地适用于可移动的设备是自主机器人的情况。然而,本发明还适用于其他类型的可移动的设备和可穿戴的设备,例如移动电话、智能手表等。
这里讨论的“位置”可以指绝对位置,例如可移动的设备位于由纬度和经度定义的地球上的位置,并且还可以指相对于另一位置的相对位置(例如,可移动的设备距离初始起始位置的距离和方向)。位置的确定还经常包括方向的确定,例如相对于地球磁场的绝对值,以及相对于初始方向一定量的旋转的相对值。
背景技术
期望能够在GPS信号不可用的情况下确定可移动的设备的位置。这对于自主机器人来说尤其如此,以允许精确的导航。已知的方法是使用来自摄像头的图像以便确定位置。然而,如果要可靠地确定位置,则这种系统往往需要非常精确的摄像头的校准。传统的视觉测程技术包括稀疏方法(包括若干步骤,该几个步骤包括特征的检测和匹配、运动估计和优化),以及直接方法(包括运动估计和优化的步骤)。这种技术倾向于需要精确的摄像头校准,并且通常在纹理不良的环境中(即,具有很少特征的地方)或者当正在捕获图像的摄像头快速旋转时失败。另外,虽然这种系统通常能够确定行进的路径的形状,但是它们通常不能估计尺度,即行进的实际距离。
替代性地,已知使用神经网络来处理来自摄像头的图像以便确定位置。Mohanty等人的“DeepVO:A Deep Learning approach for Monocular Visual Odometry(用于单目视觉测程的深度学习方法)”(2016年11月18日发布于预印本网站(arXiv:1611.06069))公开了这样的系统。然而,使用神经网络的已知系统存在各种问题。它们往往需要针对将要使用它们的特定环境进行训练,因此无法在没有首先进行适当的训练的新环境中使用。
本发明寻求缓解上述问题。可选择地和/或附加地,本发明寻求提供确定可移动的设备的位置的改进方法。
发明内容
根据本发明的第一方面,提供了一种确定包括摄像头的可移动的设备的位置的计算机执行的方法,该方法包括以下步骤:
使用摄像头捕获一段时间内的图像序列;
对于来自图像序列的连续图像对,使用第一神经网络确定表明设备的运动的特征,该设备的运动在捕获该图像对的第一图像的时间与捕获该图像对的第二图像的时间之间;
对于连续图像序列,使用第二神经网络从由第一神经网络确定的特征确定表明设备的位置的特征;以及
对于连续图像序列,从由第二神经网络确定的特征确定设备的位置。
通过使用两个神经网络的组合,已经发现更加稳健得多和更加可靠得多的位置确定是可能的。特别地,可以训练第一神经网络以最有效地确定来自图像的表明由图像之间的差异所暗示的运动的特征,该运动仅取决于两个图像并且不依赖于历史信息(例如先前确定的位置)。然而,可以在同一时间训练第二神经网络以最有效地从由第一神经网络确定的特征确定可移动的设备的位置,对于该位置,历史信息(例如先前确定的位置)是非常有用的。通过以这种方式将处理拆分成两个神经网络,可以有效地实现对逐步运动和整体位置二者的训练。此外,通过训练整个系统可以同时训练两个神经网络,因此特别地可以训练第一神经网络以确定对于整个系统的操作是最好的任何运动特征,而不是训练第一神经网络以确定具有预选属性的运动特征,这些具有预选属性的运动特征实际上可能不是要使用的最佳特征类型。
优选地,除了确定设备的位置外,还确定设备的方向。因此,确定了设备的“姿势”。
优选地,图像序列的图像是单目图像。
有利地,第一神经网络是卷积神经网络。这种类型的神经网络特别适用于对具有大量参数的数据(例如图像数据)进行操作。
有利地,第二神经网络是递归神经网络。在这种情况下,优选地,第二神经网络是长短期记忆神经网络。递归神经网络,特别是长短期记忆类型,特别适合于对时间依赖性的数据进行操作。
优选地,该方法还包括针对每对连续捕获的图像,从由第二神经网络确定的特征确定设备的相对位置信息和方向信息的步骤。在这种情况下,优选地,确定设备的位置的步骤包括整合从由第二神经网络确定的特征确定的相对位置信息和方向信息。换句话说,从连续运动估计在测程上确定设备的位置。
有利地,该方法还包括针对每对连续捕获的图像,确定相对位置信息和方向信息的相应不确定性信息的步骤。不确定性信息可以与姿势信息一起用作即时定位与地图构建(Simultaneous Localisation And Mapping,SLAM)算法的输入。
图像序列的每个图像可以已经与其相应的位置信息相关联,并且该方法还可以包括使用相应的位置信息训练第一神经网络和第二神经网络的步骤。优选地,每个图像还已经与其方向信息相关联。
该设备可以是自主机器人。该设备可以替代性地是移动电话、可穿戴设备或任何其他合适的可移动的设备。
根据本发明的第二方面,提供了一种可移动的设备,该可移动的设备包括:
存储器;
处理器;
摄像头;
其中,该设备被布置为:
使用摄像头捕获一段时间内的图像序列;
对于来自图像序列的连续图像对,使用由处理器提供的第一神经网络确定表明设备的运动的特征,该设备的运动在捕获该图像对的第一图像的时间与捕获该图像对的第二图像的时间之间;
对于连续图像序列,使用由处理器提供的第二神经网络从由第一神经网络确定的特征确定表明位置的特征;以及
对于连续图像序列,从由第二神经网络确定的特征确定设备的位置。
优选地,该设备被布置为除了确定设备的位置之外还确定设备的方向。
优选地,图像序列的图像是单目图像。
有利地,第一神经网络是卷积神经网络。
有利地,第二神经网络是递归神经网络。在这种情况下,优选地,第二神经网络是长短期记忆神经网络。
优选地,该设备还被布置为针对每对连续捕获的图像,从由第二神经网络确定的特征确定设备的相对位置信息和方向信息。在这种情况下,优选地,该设备被布置为通过整合从由第二神经网络确定的特征确定的相对位置信息和方向信息确定设备的位置。
有利地,该设备还被布置为针对每对连续捕获的图像,确定相对位置信息和方向信息的相应不确定性信息。
根据本发明的第三方面,提供了一种计算机程序产品,该计算机程序产品被布置为当在可移动的设备上执行时,实施上述任何方法。
根据本发明的第四方面,提供了一种计算机程序产品,该计算机程序产品被布置为当在可移动的设备上执行时,提供上述任何可移动的设备。
当然可以理解,关于本发明的一个方面描述的特征可以结合到本发明的其他方面中。例如,本发明的方法可以结合参考本发明的可移动的设备描述的任何特征,反之亦然。
附图说明
现在将通过示例的方式仅参考所附的示意图来描述本发明的实施例,其中:
图1是根据本发明的实施例的自主机器人的示意图;
图2是表示图1的自主机器人估计其位置的操作的流程图;
图3是表示图2的过程的原理图;以及
图4是在图2和图3的过程中使用的LSTM的原理图。
具体实施方式
在图1中示出了根据本发明的实施例的自主机器人的示意图。自主机器人1包括处理器2。应当理解,在不同的实施例中,处理器2可以是单处理器系统、双处理器系统或任何其他合适的处理器系统。处理器2与摄像头3和存储器4通信,存储器4存储由摄像头3捕获的图像(以及其他内容)。
现在参考图2的流程图描述自主机器人1确定其位置的操作。该过程也在图3中示意性地示出。在每个时间步,自主机器人1基于当前对其可用的信息确定其位置。图3示出了三个连续的时间步t、t+1和t+2,其中对于每个时间步,确定自主机器人1的“姿势(pose)”,其分别为Poset、Poset+1和Poset+2,其中姿势是位置信息和朝向信息(即自主机器人面向的方向)的组合。
首先,获得由摄像头3连续捕获的图像对(步骤21,图3的部分31)。然后,通过从示例图像集中减去平均RGB通道值,对每个图像进行预处理(步骤22,图3的部分32)。该图像集可以是例如,如下面详细描述的训练自主机器人1的图像。此外,图像的尺寸调整为64的倍数。然而,这种预处理是可选的,并且在其他实施例中不会出现。在图3中可以看出,对于时间步t,初始图像对产生预处理图像RGBt和RGBt+1,而对于时间步t+1,预处理图像是RGBt+1和RGBt+2,对于其他时间步以此类推。
由处理器2和存储器4实现的卷积神经网络(Convolutional Neural Network,CNN)获取该预处理图像对并且使用该预处理图像对来确定特征(步骤23,图3的部分33)。CNN根据它的训练确定特征,该训练已经如以下所述执行。
CNN是一种在网络结构中结合卷积层的神经网络,因此,与在其他类型的神经网络中使用的完全连接层形成鲜明对比的是,CNN能够利用数据的空间规律性。这意味着CNN所需的参数数量显著减少,从而允许它们在高维输入(例如原始图像数据)上操作。在CNN中,在每个卷积层应用多重卷积运算,以从前一层的输出映射确定多个特征。在训练期间学习与映射进行卷积的滤波器内核,如例如在[38]中所描述的。
CNN将通过堆叠预处理的连续图像对而生成的张量作为输入。CNN由9个卷积层组成,除了最后一个卷积层以外,每个卷积层跟随有整流线性单元(Rectified Linear Unit,ReLU)非线性激活,总共给出17层。层配置如下:
网络中感受野的尺寸逐渐从7×7缩小到5×5,然后逐渐缩小到3×3,以捕捉小的感兴趣的特征。引入零补白要么以适应感受野的配置,要么以在卷积之后保持张量的空间维度。增加通道的数量(即用于特征检测的滤波器的数量),以学习各种特征。
在本实施例中,CNN具有5500万可训练的权重,但是应当理解,在其他实施例中,可以使用不同数量的权重。
然后来自最终层(即Conv6)的特征是CNN的输出。
下一步,递归神经网络(Recurrent Neural Network,RNN)获取由CNN生成的特征,并从它们确定运动特征(步骤24,图3的部分34的LSTM框)。与CNN类似,RNN根据它的训练来做到这一点,下面将详细描述。
RNN是各层对输入进行操作,但也对隐藏层和/或输出的延迟版本进行操作的一种神经网络。通过这种方式,RNN具有它们可以用作“记忆”的内部状态,以跟踪过去的输入和相应的决定。
在本实施例中,使用具有长短期记忆(Long Short-Term Memory,LTSM)架构的RNN(其中存在各种变化),如图4所示,其中⊙表示逐个元素的乘积,并且表示两个向量的加法。记忆单元的内容存储在ct中。输入门对当前时间步输入如何进入记忆的内容进行控制。遗忘门ft通过产生控制信号0到1来确定何时应该清空记忆单元,控制信号0到1根据需要清除记忆单元。最后,输出门ot确定是否应该在当前时间步使用记忆细胞的内容。RNN的操作由以下等式描述:
it=σ(Wxixt+Whiht-1+Wcict-1+bi)
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf)
zt=tanh(Wxcxt+Whcht-1+bc)
ct=ft⊙ct-1+it⊙zt
ot=act(Wxoxt+Whoht-1+Wcoct+bo)
ht=ot⊙tanh(ct)
参数Wi,j和bi完全参数化RNN的操作,并且在训练期间学习。递归隐藏层允许网络利用输入数据的时间规律性来改善其性能。
虽然在传统的LSTM模型中仅从前一时间步延续隐藏状态,但是在本实施例中,为前一时间步确定的姿势被直接馈送到RNN作为输入。这可以在图3中看到,其中时间步的姿势被馈送到LSTM框以用于下一个时间步。这样做的原因是,对于位置估计,输出本质上是在每个时间步处的连续移位的积分。所以,所确定的前一时间步的姿势是特别重要的。
在本实施例中,LSTM具有拥有2000个单元的细胞的两层,但是应当理解,在其他实施例中,可以使用不同数量的层和单元。
接着,由(高维度的)RNN所确定的运动特征被传递到完全连接层(步骤25),该完全连接层输出低维度的特征(对于姿势至少6个特征,对于不确定性至少6个特征,并且如果使用混合高斯模型来估计姿势和不确定性则对于每个可能有更多特征)。
接着,来自完全连接层的低维特征被传递到SE(3)层(步骤26,图3的部分34的SE3框)。SE(3)为每个时间步整合连续的运动特征,以便在每个时间步处确定自主机器人1的位置(实际上是姿势,例如时间步t的Poset)。
SE3是特殊的欧几里得群,其元素是变换矩阵,该变换矩阵由来自特殊正交群SO3的旋转和平移向量组成:
产生属于SE3的变换估计并不简单,因为SO3分量需要是正交矩阵。然而,SE3的李代数(Lie Algebra)se3可以由不受制于正交约束的分量来描述:
然后可以使用指数映射完成se3和SE3之间的转换:
exp:se3→SE3。
在替代实施例中,使用旋转的四元数表示来代替矩阵表示。特别地,ω分量被转换为向量:
wt=[0,ωx,ωy,ωz]
然后可以仅使用简单的线性代数运算来计算这些量的梯度。此外,避免了计算指数映射所需的昂贵的特征值失代偿(Eigenvalue Decompensation)。
因此,通过这种方式,自主机器人1使用来自摄像头3的图像来估计其位置,特别是估计其姿势。
从连续的传感器测量值估计位置(即测程法)不可避免地受制于漂移。因此,通常将其与环形闭合、地图匹配或姿势图优化方法结合使用以创建即时定位与地图构建(Simultaneous Localisation and Mapping,SLAM)系统。将测程法测量值集成到这样的系统中的关键方面是不确定性估计的可用性。
为了提供这样的估计,(在SE(3)层之前)使用完全连接层的输出。将由完全连接层产生的估计值与来自训练数据的地面实况姿势信息进行比较,从而导致姿势(位置和方向)中的误差分布。然后使用最大似然法来训练代表不确定性的高斯分布的混合的预测。
为了操作,当然需要训练神经网络,这通过提供测试数据和将要最小化的成本函数来完成。如现在描述的自主机器人1的CNN和RNN的训练,实际上,二者同时训练。
如上所述,本实施例的系统估计姿势和不确定性二者。测试数据将是图像序列,这些图像具有“地面实况”姿势(即正确的姿势)。训练的成本函数由两部分组成,第一部分涉及姿势估计,第二部分涉及不确定性估计。对于姿势估计,成本函数的第一部分训练系统以最小化估计的姿势和地面实况姿势之间的差异。对于不确定性估计,成本函数的第二部分通过将神经网络的输出与姿势标签进行比较来训练系统。然后由通过时间的反向传播来完成训练,以调整CNN的权重和RNN的权重以最佳地最小化成本函数的结果。
通过这种方式,可以看出训练CNN以提供用于输入到RNN的最合适的特征,并且同时训练RNN以从这些特征(和先前的确定)中最准确地确定自主机器人1的姿势(及其不确定性)。特别地没有训练CNN以最好地提供任何特定类型的特征或具有任何特定属性的特征;相反地,只是简单地训练它以提供对整个系统的操作最好的特征。然而,在某些实施例中,为了加速初始训练过程,CNN最初被隔离地训练(或以其他方式提供有具有这种训练效果的权重)以提供表明连续图像之间的运动的特征。这为CNN提供了初始状态,然后CNN在系统作为整体被训练时进一步被优化训练。
虽然已经参考特定实施例描述和说明了本发明,但是本领域普通技术人员将理解,本发明本身有许多不同的变化,在此没有具体说明。
在前面的描述中,提及了具有已知的、明显的或可预见的等同物的整体或元素,则这些等同物在此并入,如同单独阐述一样。应该参考用于确定本发明的真实范围的权利要求,应当解释本发明的范围以便包含任何这样的等同物。读者还将理解,被描述为优选的、有利的、方便的等的本发明的整体或特征是可选的,并且不限制独立权利要求的范围。此外,应当理解,在本发明的一些实施例中虽然可能有益的可选的整体或特征可能是不期望的,并且因此可能在其他实施例中不存在。

Claims (14)

1.一种确定包括摄像头的可移动的设备的位置的计算机执行的方法,包括以下步骤:
使用所述摄像头捕获一段时间内的图像序列;
对于来自所述图像序列的连续图像对,使用第一神经网络确定表明所述设备的运动的特征,所述设备的运动在捕获所述图像对的第一图像的时间与捕获所述图像对的第二图像的时间之间,其中,所述第一神经网络是卷积神经网络,所述卷积神经网络将通过堆叠所述连续图像对而生成的张量作为输入,其中,所述连续图像对是由所述摄像头连续捕获的一对图像;
对于所述图像序列,使用第二神经网络从由所述第一神经网络确定的特征确定表明所述设备的位置的特征,其中,所述第二神经网络包括递归神经网络;
对于所述图像序列,从由所述第二神经网络确定的特征确定所述设备的位置;
针对每对连续捕获的图像,从由所述第二神经网络确定的特征确定所述设备的相对位置信息和方向信息;以及
针对每对连续捕获的图像,确定所述相对位置信息和所述方向信息的相应不确定性信息。
2.根据权利要求1所述的方法,其特征在于,除了确定所述设备的位置之外还确定所述设备的方向。
3.根据权利要求1或2所述的方法,其特征在于,所述图像序列的图像是单目图像。
4.根据权利要求1所述的方法,其特征在于,所述第二神经网络是长短期记忆神经网络。
5.根据权利要求1所述的方法,其特征在于,所述确定所述设备的位置的步骤包括:整合从由所述第二神经网络确定的特征确定的所述相对位置信息和所述方向信息。
6.根据权利要求1或2所述的方法,其特征在于,所述图像序列的每个图像已经与其相应的位置信息(和方向信息)相关联,并且所述方法还包括以下步骤:使用所述相应的位置信息(和方向信息)训练所述第一神经网络和所述第二神经网络。
7.根据权利要求1或2所述的方法,其特征在于,所述设备是自主机器人。
8.一种可移动的设备,其特征在于,包括:
存储器;
处理器;
摄像头;
其中所述设备被布置为:
使用所述摄像头捕获一段时间内的图像序列;
对于来自所述图像序列的连续图像对,使用由所述处理器提供的第一神经网络确定表明所述设备的运动的特征,所述设备的运动在捕获所述图像对的第一图像的时间与捕获所述图像对的第二图像的时间之间,其中,所述第一神经网络是卷积神经网络,所述卷积神经网络将通过堆叠所述连续图像对而生成的张量作为输入,其中,所述连续图像对是由所述摄像头连续捕获的一对图像;
对于所述图像序列,使用由所述处理器提供的第二神经网络从由所述第一神经网络确定的特征确定表明所述设备的位置的特征,其中,所述第二神经网络包括递归神经网络;
对于所述图像序列,从由所述第二神经网络确定的特征确定所述设备的位置;
针对每对连续捕获的图像,从由所述第二神经网络确定的特征确定所述设备的相对位置信息和方向信息;以及
针对每对连续捕获的图像,确定所述相对位置信息和所述方向信息的相应不确定性信息。
9.根据权利要求8所述的设备,其特征在于,所述设备被布置为除了确定所述设备的位置之外还确定所述设备的方向。
10.根据权利要求8或9所述的设备,其特征在于,所述图像序列的图像是单目图像。
11.根据权利要求8所述的设备,其特征在于,所述第二神经网络是长短期记忆神经网络。
12.根据权利要求8所述的设备,其特征在于,还被布置为:通过整合从由所述第二神经网络确定的特征确定的所述相对位置信息和所述方向信息确定所述设备的位置。
13.一种计算机程序产品,其被布置为当在可移动的设备上执行时,实施根据权利要求1至7中任一项所述的方法。
14.一种计算机程序产品,其被布置为当在可移动的设备上执行时,提供根据权利要求8至12中任一项所述的可移动的设备。
CN201880020542.1A 2017-01-23 2018-01-17 确定可移动的设备的位置 Active CN110785777B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GR20170100024 2017-01-23
GR20170100024 2017-01-23
GBGB1703005.7A GB201703005D0 (en) 2017-02-24 2017-02-24 Determining the location of a mobile device
GB1703005.7 2017-02-24
PCT/GB2018/050134 WO2018134589A1 (en) 2017-01-23 2018-01-17 Determining the location of a mobile device

Publications (2)

Publication Number Publication Date
CN110785777A CN110785777A (zh) 2020-02-11
CN110785777B true CN110785777B (zh) 2024-04-02

Family

ID=61028084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880020542.1A Active CN110785777B (zh) 2017-01-23 2018-01-17 确定可移动的设备的位置

Country Status (6)

Country Link
US (1) US11436749B2 (zh)
EP (1) EP3571665B1 (zh)
JP (1) JP7221203B2 (zh)
CN (1) CN110785777B (zh)
AU (1) AU2018208816B2 (zh)
WO (1) WO2018134589A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201804079D0 (en) 2018-01-10 2018-04-25 Univ Oxford Innovation Ltd Determining the location of a mobile device
CN110349185B (zh) * 2019-07-12 2022-10-11 安徽大学 一种rgbt目标跟踪模型的训练方法及装置
CN110503152B (zh) * 2019-08-26 2022-08-26 北京迈格威科技有限公司 用于目标检测的双路神经网络训练方法及图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105374043A (zh) * 2015-12-02 2016-03-02 福州华鹰重工机械有限公司 视觉里程计背景过滤方法及装置
CN105911518A (zh) * 2016-03-31 2016-08-31 山东大学 机器人定位方法
GB201616097D0 (en) * 2016-09-21 2016-11-02 Univ Oxford Innovation Ltd Segmentation of path proposals
CN106097391A (zh) * 2016-06-13 2016-11-09 浙江工商大学 一种基于深度神经网络的识别辅助的多目标跟踪方法

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4419925A1 (de) 1994-06-08 1995-12-14 Bodenseewerk Geraetetech Inertialsensor-Einheit
JP3655033B2 (ja) * 1996-12-10 2005-06-02 株式会社リコー 携帯型情報処理装置及び携帯型情報処理装置の場所識別方法
JPH11110542A (ja) * 1997-09-30 1999-04-23 Toshiba Corp パターン抽出方法および装置、そのプログラムを記録した媒体
US6704621B1 (en) 1999-11-26 2004-03-09 Gideon P. Stein System and method for estimating ego-motion of a moving vehicle using successive images recorded along the vehicle's path of motion
WO2006084385A1 (en) 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
US7925049B2 (en) 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
US20080195316A1 (en) 2007-02-12 2008-08-14 Honeywell International Inc. System and method for motion estimation using vision sensors
JP2009009296A (ja) 2007-06-27 2009-01-15 Noritsu Koki Co Ltd 顔画像変形方法とこの方法を実施する顔画像変形装置
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8213706B2 (en) 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
US8259994B1 (en) 2010-09-14 2012-09-04 Google Inc. Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases
US8761439B1 (en) 2011-08-24 2014-06-24 Sri International Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
US20140139635A1 (en) 2012-09-17 2014-05-22 Nec Laboratories America, Inc. Real-time monocular structure from motion
US9576183B2 (en) 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US9243916B2 (en) 2013-02-21 2016-01-26 Regents Of The University Of Minnesota Observability-constrained vision-aided inertial navigation
US9674507B2 (en) 2013-04-30 2017-06-06 Qualcomm Incorporated Monocular visual SLAM with general and panorama camera movements
US20140341465A1 (en) 2013-05-16 2014-11-20 The Regents Of The University Of California Real-time pose estimation system using inertial and feature measurements
WO2015013418A2 (en) 2013-07-23 2015-01-29 The Regents Of The University Of California Method for processing feature measurements in vision-aided inertial navigation
US10306206B2 (en) 2013-07-23 2019-05-28 The Regents Of The University Of California 3-D motion estimation and online temporal calibration for camera-IMU systems
US9967463B2 (en) 2013-07-24 2018-05-08 The Regents Of The University Of California Method for camera motion estimation and correction
EP2854104A1 (en) 2013-09-25 2015-04-01 Technische Universität München Semi-dense simultaneous localization and mapping
US9243915B2 (en) 2013-10-16 2016-01-26 Physical Devices, Llc Devices and methods for passive navigation
US9390344B2 (en) 2014-01-09 2016-07-12 Qualcomm Incorporated Sensor-based camera motion detection for unconstrained slam
CN103983263A (zh) 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
US9430847B2 (en) 2014-06-12 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method for stereo visual odometry using points, lines and planes
US10113910B2 (en) * 2014-08-26 2018-10-30 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
US9709404B2 (en) 2015-04-17 2017-07-18 Regents Of The University Of Minnesota Iterative Kalman Smoother for robust 3D localization for vision-aided inertial navigation
EP3295422B1 (en) * 2015-05-10 2020-01-01 Mobileye Vision Technologies Ltd. Road profile along a predicted path
EP3158293B1 (en) 2015-05-23 2019-01-23 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
EP3182373B1 (en) 2015-12-17 2019-06-19 STMicroelectronics S.A. Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm
CN106017458B (zh) 2016-05-18 2019-08-27 宁波华狮智能科技有限公司 移动机器人组合式导航方法及装置
US10803323B2 (en) * 2017-05-16 2020-10-13 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
EP3495992A1 (en) * 2017-12-07 2019-06-12 IMRA Europe SAS Danger ranking using end to end deep neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105374043A (zh) * 2015-12-02 2016-03-02 福州华鹰重工机械有限公司 视觉里程计背景过滤方法及装置
CN105911518A (zh) * 2016-03-31 2016-08-31 山东大学 机器人定位方法
CN106097391A (zh) * 2016-06-13 2016-11-09 浙江工商大学 一种基于深度神经网络的识别辅助的多目标跟踪方法
GB201616097D0 (en) * 2016-09-21 2016-11-02 Univ Oxford Innovation Ltd Segmentation of path proposals

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Vikram Mohanty 等.DeepVO: A Deep Learning approach for Monocular Visual Odometry.《arXiv:1611.06069v1》.2016,1-9. *
周子希.基于构建地图的手势控制移动机器人.《中国优秀硕士学位论文全文数据库 信息科技辑》.2016,I140-167. *

Also Published As

Publication number Publication date
AU2018208816A1 (en) 2019-08-15
AU2018208816B2 (en) 2022-06-16
US11436749B2 (en) 2022-09-06
CN110785777A (zh) 2020-02-11
EP3571665B1 (en) 2023-06-07
EP3571665A1 (en) 2019-11-27
WO2018134589A1 (en) 2018-07-26
JP2020506471A (ja) 2020-02-27
US20210350563A1 (en) 2021-11-11
JP7221203B2 (ja) 2023-02-13

Similar Documents

Publication Publication Date Title
CN110770758B (zh) 确定可移动的设备的位置
Clark et al. Vinet: Visual-inertial odometry as a sequence-to-sequence learning problem
Michelmore et al. Evaluating uncertainty quantification in end-to-end autonomous driving control
Liu et al. Deep inference for covariance estimation: Learning gaussian noise models for state estimation
CN107369166B (zh) 一种基于多分辨率神经网络的目标跟踪方法及系统
US10943352B2 (en) Object shape regression using wasserstein distance
CN110785777B (zh) 确定可移动的设备的位置
CN114565655B (zh) 一种基于金字塔分割注意力的深度估计方法及装置
Han et al. Visual tracking by continuous density propagation in sequential Bayesian filtering framework
CN112967388A (zh) 三维时序图像神经网络模型的训练方法和装置
EP3588441A1 (en) Imagification of multivariate data sequences
Jo et al. Mixture density-PoseNet and its application to monocular camera-based global localization
De Maio et al. Deep bayesian icp covariance estimation
CN113916223B (zh) 定位方法及装置、设备、存储介质
Aghli et al. Online system identification and calibration of dynamic models for autonomous ground vehicles
CN114140524A (zh) 一种多尺度特征融合的闭环检测系统及方法
Zeller et al. Radar velocity transformer: Single-scan moving object segmentation in noisy radar point clouds
Hong et al. Dynamics-aware metric embedding: Metric learning in a latent space for visual planning
Mateus et al. Active perception applied to unmanned aerial vehicles through deep reinforcement learning
Ibrahem et al. Sd-depth: Light-weight monocular depth estimation using space depth cnn for real-time applications
CN107895164A (zh) 基于单样本人耳图像的识别方法及装置
CN114693988B (zh) 卫星自主位姿的判定方法、系统及存储介质
US20220101196A1 (en) Device for and computer implemented method of machine learning
Yan et al. Research on robot positioning technology based on inertial system and vision system
Acharya et al. Deep Modeling of Non-Gaussian Aleatoric Uncertainty

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant