CN110799991A - 用于使用卷积图像变换执行同时定位和映射的方法和系统 - Google Patents

用于使用卷积图像变换执行同时定位和映射的方法和系统 Download PDF

Info

Publication number
CN110799991A
CN110799991A CN201880043635.6A CN201880043635A CN110799991A CN 110799991 A CN110799991 A CN 110799991A CN 201880043635 A CN201880043635 A CN 201880043635A CN 110799991 A CN110799991 A CN 110799991A
Authority
CN
China
Prior art keywords
point cloud
camera pose
image
neural network
homography
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880043635.6A
Other languages
English (en)
Other versions
CN110799991B (zh
Inventor
D·L·德通
T·J·马利西维茨
A·拉比诺维奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of CN110799991A publication Critical patent/CN110799991A/zh
Application granted granted Critical
Publication of CN110799991B publication Critical patent/CN110799991B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

用于基于两个图像计算单应性的增强现实装置和方法。一种方法可以包括:接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像;基于第一图像生成第一点云并且基于第二图像生成第二点云;将第一点云和第二点云提供给神经网络;以及由神经网络基于第一点云和第二点云生成单应性。通过以下方式训练神经网络:生成多个点;确定3D轨迹;对3D轨迹采样以获得观看点的相机姿势;将点投影到2D平面上;比较使用投影的点生成的单应性与地面真实单应性;以及基于该比较修改神经网络。

Description

用于使用卷积图像变换执行同时定位和映射的方法和系统
相关申请的交叉引用
本申请是2017年6月28日提交的名称为“METHOD AND SYSTEM FOR PERFORMINGSIMULTANEOUS LOCALIZATION AND MAPPING USING CONVOLUTIONAL IMAGETRANSFORMATION (用于使用卷积图像变换执行同时定位和映射的方法和系统)”的美国临时专利申请No.62/526,203的非临时申请并要求其优先权,在此将其内容整体并入本文。
背景技术
现代计算和显示技术促进了用于所谓的“虚拟现实”或“增强现实”体验的系统的开发,其中数字再现图像或其部分以看起来是真实的或可被感知为真实的方式呈现给用户。虚拟现实或“VR”场景通常涉及呈现数字或虚拟图像信息,而对其他实际真实世界视觉输入没有透明度;增强现实或“AR”场景通常涉及呈现数字或虚拟图像信息,作为对用户周围实际世界的可视化的增强。
尽管在这些显示技术上取得了进步,但是在本领域中仍需要与增强现实系统,特别是与显示系统有关的改进的方法、系统和装置。
发明内容
本公开总体上涉及用于执行同时定位和映射(simultaneous localization andmapping,SLAM)的系统和方法。更特别地,本公开的实施例提供了用于在头戴式虚拟现实(VR)、混合现实(MR)和/或增强现实(AR)装置中使用卷积图像变换来执行SLAM的系统和方法。本发明的实施例通过分析由用户佩戴的装置捕获的图像来实现用户/装置运动的准确检测,从而提高了所显示的虚拟内容的准确度。虽然可参考AR装置来描述本发明,但是本公开也适用于计算机视觉和图像显示系统中的各种应用。
在本发明的第一方面,提供了一种用于基于两个图像计算单应性的方法。该方法可以包括:接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像。该方法还可以包括基于第一图像生成第一点云以及基于第二图像生成第二点云。该方法可以进一步包括将第一点云和第二点云提供给神经网络。该方法可以进一步包括由神经网络基于第一点云和第二点云生成单应性。在一些实施例中,第一点云和第二点云是二维(2D)点云。在一些实施例中,第一图像由第一相机在第一时刻捕获。在一些实施例中,第二图像由第一相机在第一时刻之后的第二时刻捕获。在一些实施例中,使用第一神经网络来生成第一点云和第二点云,以及该神经网络是第二神经网络。
在一些实施例中,先前通过以下方式训练神经网络:关于包含多个点的一个或多个三维(3D)点云中的每个3D点云,确定在多个点的阈值距离内的3D轨迹;对3D轨迹采样以获得特定的第一相机姿势和特定的第二相机姿势,其中多个点至少部分地从特定的第一相机姿势和特定的第二相机姿势可观看到;基于特定的第一相机姿势,将多个点投影到第一2D平面上以生成第一2D点云;基于特定的第二相机姿势,将多个点投影到第二2D平面上以生成第二2D点云;基于特定的第一相机姿势和特定的第二相机姿势,确定第一2D点云与第二2D点云之间的地面真实单应性;通过神经网络基于第一2D点云和第二2D点云生成特定单应性;比较特定单应性与地面真实单应性;以及基于该比较修改神经网络。在一些实施例中,通过对一个或多个几何形状采样来生成多个3D点云。在一些实施例中,特定的第一相机姿势和特定的第二相机姿势具有至少30%的重叠。
在本发明的第二方面,提供了一种AR装置。AR装置可以包括相机。AR装置还可以包括处理器,该处理器通信地耦接至相机并且被配置为执行操作,所述操作包括:从相机接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像、基于第一图像生成第一点云且基于第二图像生成第二点云、将第一点云和第二点云提供给神经网络、以及通过神经网络基于第一点云和第二点云生成单应性。在一些实施例中,第一点云和第二点云是2D点云。在一些实施例中,使用第一神经网络生成第一点云和第二点云,以及该神经网络是第二神经网络。
在本发明的第三方面,提供了一种非暂时性计算机可读介质。非暂时性计算机可读介质可以包括指令,该指令在由处理器执行时使处理器执行包括操作,该操作包括:接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像、基于第一图像生成第一点云且基于第二图像生成第二点云、将第一点云和第二点云提供给神经网络、以及通过神经网络基于第一点云和第二点云生成单应性。在一些实施例中,第一点云和第二点云是2D点云。在一些实施例中,第一图像由第一相机在第一时刻捕获,以及第二图像由第一相机在第一时刻之后的第二时刻捕获。在一些实施例中,使用第一神经网络生成第一点云和第二点云,以及该神经网络是第二神经网络。
附图说明
通过参考以下附图可实现对各种实施例的性质和优点的进一步理解。在附图中,相似的部件或特征可以具有相同的附图标记。此外,可以通过在参考标记之后加上破折号和在相似组件之间进行区分的第二标记来区分相同类型的各种组件。如果在说明书中仅使用第一参考标记,则该描述适用于具有相同的第一参考标记的任何相似组件,而与第二参考标记无关。
图1示出了根据本发明的一些实施例的同时定位和映射(SLAM)方法的三个子任务的视觉概略图。
图2示出了根据本发明的一些实施例的DH-SLAM跟踪系统。
图3示出了根据本发明的一些实施例的魔法点网(MagicPointNet)架构。
图4示出了根据本发明的一些实施例的魔法点网合成训练数据。
图5示出了根据本发明的一些实施例的基于点的单应性网(HomographyNet)架构。
图6示出了根据本发明的一些实施例的基于点的单应性网数据生成。
图7示出了根据本发明的一些实施例的智能锚(anchor)SLAM系统。
图8示出了根据本发明的一些实施例的用于基于两个图像计算单应性的方法。
图9示出了根据本发明的一些实施例的用于训练神经网络的方法。
图10示出了根据本发明的一些实施例的可穿戴增强现实(AR)装置的示意图。
具体实施方式
例如图像分类和对象检测的计算机视觉任务中的深度学习成功很大程度上源于例如图像网(ImageNet)和MS-COCO的大型注释数据库的可用性。然而,对于类似同时定位和映射(SLAM)的姿势跟踪和重建问题,存在具有较小的装置特定数据集的不完整(fragment)的生态系统,该较小的装置特定数据集例如基于微软(Microsoft)Kinect的弗莱堡(Freiburg)-TUM RGBD数据集、基于立体视觉相机和IMU的EuRoC无人机/MAV数据集以及配备有四个相机、GPS数据和Velodyne激光扫描仪的车辆的KITTI驾驶数据集。
用于SLAM的图像网当前不存在。在实践中,很难针对大量环境和场景获得准确的地面真实(ground-truthing)姿势测量。获得在地面真实传感器与视觉SLAM系统之间的精确对准,需要付出很大的努力,而且很难在不同相机的变化范围内缩放。真实感的渲染是有用的,因为SLAM任务的所有相关几何变量都可以100%准确地记录下来。关于真实感的序列对SLAM基准测试(benchmark)可能具有优势,但是关于此类渲染图像进行训练通常会遇到域适应问题,并且许多深度(deep)网络似乎过拟合。
在实践中,优选的是SLAM模型倾向于在嵌入式平台上大规模运行,嵌入式平台例如机器人技术和混合现实中的那些。本发明的实施例关注于与全帧预测相反的几何一致性,使得这样的系统可以部署在嵌入式平台上。虽然深度学习系统进行的全帧预测具有某些优势,但在许多实例中,预测/对准点对于度量水平的姿势恢复是足够的。深度网络的部署通常涉及定制的离线优化过程,以使网络尽可能小,因此在本发明的一些实例中,完全省略了全视觉帧预测问题。
本发明的实施例可包括被称为DH-SLAM的系统,其用于未知环境中的6自由度单目相机定位,该系统主要由被训练的卷积神经网络提供动力,该卷积神经网络被训练以在存在高传感器噪声、低照明和严重遮挡的情况下能够稳健地估计单应性(homography)。该系统可包括三个深卷积网(ConvNet)。第一网络(魔法点网)可以在单个图像上运行并提取图像中的显著(salient)点,通过设计使这些显著点在图像中被隔离并分布良好并且可不利用例如非最大抑制的任何其他后处理。第二网络(点单应性网(PointHomographyNet))可对来自魔法点网的点响应映射的对进行操作,并且可以估计与两个点图像相关的单应性。然后,如果场景是高度非平面的,则可以使用标准MVG技术重新估计单应性估计,也可以将单应性估计升级为基础(fundamental)矩阵。第三网络(重定位网(RelocalizationNet))可将单个图像变换为低维嵌入向量,该向量允许用于可靠和快速重定位的快速图像比较。使用简单的合成数据训练网络,使它们易于训练,因为它们不依赖昂贵的外部相机地面真实设备或高级图形渲染管线。该系统快速精简,能够在CPU上运行30+FPS。
在本发明的各种实施例中,提出了三个定制的SLAM卷积神经网络以及三个单独的训练域。然而,不需要这种特定的实现方式,并且在一些实施例中可以组合一个或多个神经网络。提出了一种被单应性地启发(inspire)的单目SLAM系统,因为单应性可能是每个系统的重要组成部分。本发明的实施例可以不使用任何种类的局部特征点描述符,并且可以不需要手动数据注释或昂贵的离线图形渲染管线。
图1示出了根据本发明的一些实施例的SLAM方法的三个子任务的视觉概略图。在子任务102处,从图像提取几何点基元以去除例如传感器噪声、照明、纹理和运动模糊的成像效果。在子任务104处,比较点图像的对以提取与图像相关的全局姿势信息。在子任务106处,将图像压缩为低维向量以用于快速图像匹配。
子任务102涉及将图像映射到几何实体的组,例如点。子任务102的一个目标是消除例如照明、阴影和整体全局照明变化的有害变量的损害。还可能需要使用与角点检测(corner-detection)类似的技术来提取输入图像内的可靠位置。然而,不是使用解析方法定义图像角点,而是使用定制的2D形状渲染器来训练角点检测器。由于场景点的半密集覆盖对于稳健的变换估计可能是重要的,因此从系统中半密集地输出所得的2D图像位置。
子任务104涉及寻找一对图像之间的相对姿势。在一些实例中,可以从关于灰度图像的对而训练的CNN计算单应性,这些图像采样来自具有变形(wrap)的自然图像的大型数据集。在本发明的一些实施例中,使用点图像的空间(即,魔法点网输出的图像的种类)来训练CNN。由于半密集点图像的空间可能显著小于全RGB图像的空间,因此使用比处理全RGB图像所需的神经元数量少的神经元可以获得显著更高的性能。本文提出的姿势估计网络可以对点响应图像操作,并且可以以单应模式和基本(essential)模式运行。以两种不同方式处理3D世界的能力可能是重要的,因为在多视图几何背景下,场景平面性的假设可能成立,也可能不成立。如果平面性假设成立,则可以估计单应性,然后将其升级为(R,t)估计,而无需考虑单个点深度。如果替代地,解算器基于基本矩阵估计,则场景平面性提供退化(degenerate)E估计,并且所有其他估计可能失败。因此,当可视场景几何形状是高度非平面的时,可以直接处理Es、Rs、ts和点深度。
子任务106涉及创建图像的视觉嵌入。对于其他任务,姿势敏感度可能是重要,但是对于嵌入,姿势不敏感度可能是需要的。使用真实世界图像对于此任务可能是重要的,因为在例如2D形状或点响应图像的工程表示的顶部上的学习嵌入可能不太可能提供帮助。替代地,使用大型免费获取的图像数据集(即,图像网(ImageNet)),并且单应性用于使图像变形。在学习期间,如果两个图像是单应性地相关,则可能强制该两个图像具有类似的嵌入向量。
图2示出了根据本发明的一些实施例的DH-SLAM跟踪系统200的通用架构。在一些实例中,魔法点网处理图像的对(例如,图像202和图像204),该魔法点网被训练以检测图像中的显著点并生成一对点图像(例如,点图像206和点图像208)。然后,点图像一起由点单应性网处理以计算单应性H,该单应性H将时间T处的点图像与时间T+1处的点图像相关联。来自网络的H估计可以经常将点投影到彼此的几个像素内,因此,简单的最近邻对应关系足以为大多数平面场景重新估计更精确的H’,或者可以使用多视图几何技术将H升级为更好地描述非平面场景的基础矩阵F。然后,可以使用相机矩阵K将H’和F分解为相机的相对姿势。
在一些实例中,SLAM系统可分解为三个子系统:将图像带入2D点位置的正则(canonical)子空间的魔法点(Magic Point)检测器、全局变换估计基于点的单应性网和称为重定位网(RelocNet)的视觉图像嵌入引擎。在一些实施例中,每个子系统是单独的卷积神经网络。虽然魔法点网和重定位网都可以关于单个图像操作,但是点单应性网(PointHomographyNet)关于一对图像操作。在一些实施例中,网络能够解决以下问题:检测噪声图像中的稳健的2D位置、计算两个图像之间的相对姿势以及重新定位。与严重依赖于两个工程特征描述符(ORB或SIFT)的常规方法不同,本发明的实施例可以不将描述符与图像中的各个点相关联。与这些常规的基于特征的SLAM系统不同,可以以较少描述符的方式执行相对姿势估计。也可以使用可能类似于全局图像范围(image-wide)描述符的嵌入。嵌入可以被设计为伪(pseudo)单应不变的。通过设计,通过单应性而相关的两个图像可能在给定的流形(manifold)上接近。
在一些实例中,第一步可以包括检测图像中的显著和可定位的2D位置。该步骤可以通过计算例如Harris或FAST的角状响应图、检测局部最大量并采用非最大抑制来执行。可执行附加步骤以将这些局部最大量分布在图像中。此过程可能涉及大量的领域专业知识和手工工程,这可能会限制一般化和稳健性。为了增加SLAM设置的有用性,由点检测器检测到的点可能会很好地分布在图像中并且彼此隔离,使得跨越帧的对应是容易的。还可能期望系统在高传感器噪声情况和低光照下检测点。在一些实例中,可以为每个检测到的点获得置信度分数,这可以用来帮助拒绝虚假(spurious)点。应当注意,这些图像点不需要对应于图像中的局部高梯度边缘,而是可以对应于例如斑点中心的其他低水平提示,其可以利用比常规的角点检测器大的感受野。
图3示出了根据本发明的一些实施例的魔法点网架构300。在一些实施例中,魔法点网对灰度图像操作,并为输入中的每个像素输出“指向度(point-ness)”概率。这可以通过将VGG样式的编码器与显式解码器结合使用来完成。最终15x20x65张量中的每个空间位置都可以表示局部8x8区域加上单个垃圾箱通道上的概率分布,这可能表示没有检测到点(8*8+1=65)。使用来自2D形状渲染器的点监督、使用标准的交叉熵损失来训练网络。
在一些实例中,魔法点网是使用定制的卷积网(ConvNet)架构且训练数据管线来实现的。在一些实例中,将图像I映射到具有等效分辨率的点响应图像P可能是重要的,其中输出中的每个像素对应于输入中该像素的“指向度”概率。用于密集预测的网络设计可能涉及编码器-解码器对,其中空间分辨率通过池化或跨步卷积而降低,然后通过上卷积操作而上采样回到全分辨率。由于上采样层可能会增加较高的计算负担,因此可以使用显式解码器实现魔法点网,以减少模型的计算。卷积神经网络可以使用VGG样式编码器将图像的维数从120x160减少到15x20单元网格,每个空间位置具有65个通道。在一些实施例中,QQVGA分辨率可以是120x160以减少计算负担。65个通道可对应于像素的局部不重叠的8x8网格区域加上额外的垃圾箱通道,这对应于在该8x8区域中未检测到点。使用3x3卷积然后进行BatchNorm归一化和ReLU非线性使该网络可以是完全卷积的。最终的卷积层可以是1x1卷积。
图4示出了根据本发明一些实施例的魔法点合成训练数据。在一些实施例中,图像的兴趣点可以是图像中的唯一可识别的位置,其在各种视点、照明和图像噪声变化中是稳定的。当用作稀疏SLAM系统的预处理步骤时,可能会检测到对于给定SLAM系统而工作良好的点。设计和选择点检测算法的超参数可以利用专家和领域特定的知识。
如今不存在大型的兴趣点标记图像数据库。为了避免昂贵的数据收集工作,可以使用计算机视觉库来实现渲染器。在一些实例中,渲染简单的几何形状,例如三角形、四边形、棋盘格、3D立方体和椭圆形,对于它们中的每一个,角点的地面真实位置都是已知的。还已知每个对象的2D面的质心,它们用作附加的兴趣点。应当注意,将难以设计找到2D面的中心的简单且稳健的检测器。在渲染形状之后,可以将单应变形应用于每个图像,以增加训练示例的数量。可选地,可以将例如照明变化、纹理噪声、高斯噪声、椒盐噪声或其组合等形式的大量噪声的噪声应用于一个或多个图像(例如,每个图像)。数据可以即时生成,这意味着没有示例被网络看到两次。在将15x20网格中每个单元的对数(logit)通过softmax函数传递之后,可以使用标准的交叉熵损失来训练网络。
在一些实例中,点单应性网在由魔法点产生一对点图像的情况下产生单应性。通过设计网络以关于点图像的空间和相对姿势的空间(点图像的空间x相对姿势的空间)而不是所有图像的空间和相对姿势的空间(所有图像的空间x相对姿势的空间)进行操作,例如照明、阴影和纹理某些考虑素的重要性可能降低或被忽略。此外,不需要依赖以成立光度一致性假设。
图5示出了根据本发明一些实施例的基于点的单应性网架构500。在一些实例中,连接(concatenate)二进制点图像的对,然后通过VGG样式的编码器对其进行馈送。3x3单应性H由完全连接的层输出。然后,单应性H可以被归一化,使得其右下元素是一个。通过将已知的在第二张图像中具有对应关系的一个图像中的点变换为第二张图像并比较它们的位置来计算损失。等式(1)中示出了训练点单应性网的损失函数。
Figure BDA0002341082700000101
在一些实例中,点单应性网被设计为直接关于魔法点网输出的点检测进行操作(尽管它可以对任何传统的点检测器进行操作)。该模型对于半密集15x20x65图像的对可能效果很好。在这种小的空间分辨率下,网络使用很少的计算。在输入的按通道方式(channel-wise)的连接之后,可以实现VGG样式的编码器,其包括3x3卷积、最大池化、BatchNorm和ReLU激活以及两个完全连接的层,该两个完全连接的层输出3x3单应性H的9个值。
图6示出了根据本发明的一些实施例的基于点的单应性网数据生成。在一些实施例中,为了训练点单应性网,可以生成数百万个渲染到两个虚拟相机中的点云的示例。点云可以从简单的3D几何形状生成,3D几何形状包括平面、球体和立方体。如图6所示,从包括分段线性平移和围绕随机轴的旋转的随机轨迹中采样两个虚拟相机的位置。在一些实施例中,具有至少30%视觉重叠的相机对被随机采样。一旦将点投影到两个相机帧中,就应用点输入丢失(dropout)来提高网络对虚假和丢失点检测的稳健性。在一些实例中,通过独立地随机丢失50%的匹配和随机丢失25%的点来提高性能。
通常需要考虑几个因素来训练网络以直接输出3x3矩阵。在一些实例中,当初始化最终FC层偏置以输出单位矩阵、当将单应性H的坐标归一化到范围[-1,1]时以及当将H量归一化以使得右下元素是一个时,训练效果最佳,因为单应性H具有八个自由度和九个元素。
在一些实施例中,嵌入网络的一个目标可以是将全局128维描述符与输入图像相关联。在一些实施例中,期望嵌入是单应不变的。例如,通过单应性而相关的两个图像应具有相同的嵌入向量,而未描绘相同场景内容(因此不具有相同平面)的两个图像应具有不同的嵌入向量。
嵌入网络可以产生128L2归一化描述符。这可以通过类VGG编码器网络顶部的完全连接层来完成。在一些实例中,可以使用来自图像网数据集的单应性相关的图像的对来训练嵌入网络。可以对全部来自同一图像的图像块(A,A’,B)的三元组进行采样,其中(A,A’)具有至少30%的重叠并且通过单应性而相关,而其中(A,B)没有重叠。可以生成用于训练网络的(A,A’)正对和(A,B)负对。在一些实施例中,可以使用孪生(siamese)网络,而在其他实施例中,可以使用两塔方法或三元组网络,这对于本领域技术人员而言是显而易见的。
相对于例如FAST角点检测器和Harris角点检测器的传统角点检测基线来对魔法点网进行了评估。关于来自真实传感器的合成数据和图像序列,相对于基于经典ORB+RANSAC的单应性估计引擎对点单应性网进行了评估。在合成点世界中进行评估的一个优势是,已知点集之间的地面真相对应关系。可以添加不同数量的噪声以确定两种算法如何降级(degrade)。为了评估嵌入网络,使用嵌入度量来计算最近邻中的网格。这与使用基本ResNet激活并在激活空间中获取最近邻进行比较。
为了评估整个单应SLAM系统,对由匹配产生的最终(R,t)估计进行评估。观察关于跟踪(仅相对于最后一帧的估计姿势)和嵌入增强跟踪(相对于具有最接近嵌入的K图像的估计姿势)的数字。定性地将本发明的实施例与几种开源SLAM系统(如PTAM、ORB-SLAM和LSD-SLAM)进行了比较。上述评估的结果表明,与常规方法相比,本发明的各种实施例表现出优异的性能。
本发明的实施例可以包括围绕平面设计的小型增强现实系统,其与点单应性网和重定位网一起使用少量图像及其关联的点图像。在一些实例中,数据集收集涉及创建短序列,该序列从具有法线[0,0,1]的参考平面的正面配置开始,直接指向相机中心。提供参考平面的这种正面初始视图允许单应性分解的两种解决方法以及每个2D界标的初始比例的消歧(disambiguation)。
图7示出了根据本发明的一些实施例的智能锚SLAM系统700。在一些实施例中,用户首先通过在室内环境中拍摄大部分平坦表面的图片来建立一组“智能锚”。这填充(populate)点图像和嵌入(E0,E1,E2…)的对的用户关键帧索引。一旦建立索引,系统可以在跟踪模式下运行。魔法点网和重定位网可以处理时间T处的输入图像,以生成点图像PT和嵌入向量ET。在一些实施例中,计算ET与一个或多个其他的(例如,每隔一个)嵌入(E0,E1,E2…)的点积,以找到嵌入流形上的最近邻。在图7所示的特定实施例中,选择E2。然后,可以将与E2对应的点图像P2与PT一起馈送至点单应性网,以计算单应性H,其将PT中的点变换为P2中的点。单应性H最后可以被分解为旋转R、平移t和主平面n。最终,对应于(P2,E2)锚的内容可以变形并显示为输入图像中的AR覆盖。
图8示出了用于基于两个图像计算单应性的方法800。方法800的步骤可以以与所示顺序不同的顺序来执行,并且在方法800的执行期间可以省略方法800中的一个或多个步骤。方法800中的一个或多个步骤可以由被配置为执行包含在非暂时性计算机可读介质中的指令的处理器执行和/或初始化。
在步骤802处,接收第一图像和第二图像。第一图像可以基于第一相机姿势,以及第二图像可以基于第二相机姿势,第二相机姿势与第一相机姿势不同。在一些实施例中,第一图像和第二图像可以由同一相机捕获(分别在第一时刻和第二时刻,第二时刻在第一时刻之后发生),并且在其他实施例中,可以同时或在两个时刻通过第一相机捕获第一图像以及通过第二相机捕获第二图像。
在步骤804处,基于第一图像生成第一点云,以及基于第二图像生成第二点云。在一些实施例中,使用第一神经网络生成点云,即,将第一图像作为输入提供给第一神经网络并且由第一神经网络基于第一图像生成第一点云,以及将第二图像作为输入提供给第一神经网络并且由第一神经网络基于第二图像生成第二点云。第一神经网络可以是本文描述的可基于图像生成2D点云的魔法点网。
在步骤806处,将第一点云和第二点云作为输入提供给第二神经网络。第二神经网络可以是本文描述的可基于点云生成单应性的点单应性网。在一些实施例中,第一神经网络可以与第二神经网络结合,使得可以在单个系统中结合两个网络的功能。
在步骤808处,使用第二神经网络基于第一点云和第二点云生成单应性。在一些实施例中,所生成的单应性包括矩阵(例如,3x3),从该矩阵可以提取第一相机姿势与第二相机姿势之间的相对旋转和相对平移(即,相对姿势)。
图9示出了用于训练神经网络的方法900。方法900的步骤可以以与所示顺序不同的顺序来执行,并且在方法900的执行期间可以省略方法900中的一个或多个步骤。参考方法900所描述的神经网络可以是参考方法800所描述的第二神经网络,该第二神经网络可以是本文描述的点单应性网。方法900中的一个或多个步骤可以由被配置为执行包含在非暂时性计算机可读介质中的指令的处理器执行和/或初始化。
在步骤902处,生成一个或多个3D点云。每个3D点云可以包含多个3D点。在一些实施例中,一个或多个3D点云是通过对例如平面、球体、立方体以及其他可能性的一个或多个几何形状随机采样而生成。例如,可以对于特定几何形状(例如,球形或立方体)的表面随机采样以产生多个3D点。替代地,可以对特定几何形状的边缘随机采样,或者可以对表面和边缘随机采样。在一些实施例中,可以对特定几何形状的整个体积随机采样。
在一些实施例中,可以为一个或多个3D点云中的每个3D点云执行步骤904至步骤916中的每一个。在步骤904处,可以确定在多个点附近的3D轨迹。例如,所有3D轨迹可以位于多个点的阈值距离内。在一些实施例中,3D轨迹是通过确定随机起始位置和随机结束位置而形成的线性轨迹。在其他实施例中,或在相同的实施例中,3D轨迹是非线性轨迹(例如,弯曲的),或者是通过确定随机起始位置、随机结束位置和一个或多个中间位置而形成的一系列线性轨迹。
在步骤906处,可以对3D轨迹进行采样以获得特定的第一相机姿势和特定的第二相机姿势。在一些实施例中,多个点至少部分地从特定的第一相机姿势和特定的第二相机姿势可观看到。例如,所获得的相机姿势可以被限制为观看多个点的至少25%、50%、75%或100%的那些相机姿势。如果相机姿势不满足预定阈值(例如,多个点中的至少50%是可观看到的),则丢弃相机姿势并且对3D轨迹进行重新采样以获得另一相机姿势。在一些实施例中,所获得的相机姿势被限制为彼此具有至少一些视觉重叠阈值(例如,30%)。在一些实施例中,视觉重叠可以对应于由特定的第一相机姿势和特定的第二相机姿势均可观看到的多个点中的点的百分比。在其他实施例中,可以基于所获得的姿势之间的共享视场来计算视觉重叠。
在步骤908处,基于特定的第一相机姿势将多个点投影到第一2D平面以生成第一2D点云,以及类似地,基于特定的第二相机姿势将多个点投影到第二2D平面以生成第二2D点云。在一些实施例中,第一2D平面可以正交于特定的第一相机姿势的取向向量,以及第二2D平面可以正交于特定的第二相机姿势的取向向量。
在步骤910处,基于特定的第一相机姿势和特定的第二相机姿势,确定第一2D点云与第二2D点云之间的地面真实单应性。在一些实施例中,通过首先确定特定的第一相机姿势与特定的第二相机姿势之间的相对旋转和相对平移,然后形成在结构上与具有由神经网络生成的单应性的结构一致的单应性(矩阵),来确定地面真实单应性。
在步骤912处,可以将第一2D点云和第二2D点云作为输入提供给神经网络,并且可以由神经网络基于第一2D点云和第二2D点云生成特定单应性。
在步骤914处,可以将特定单应性与地面真实单应性进行比较,以例如生成误差信号。在一些实施例中,误差信号的大小可以与特定单应性和地面真实单应性之间的差的大小成比例。在一个特定实施例中,使用标准矩阵减法来计算误差信号,在该方法中,矩阵的对应元素彼此相减。在其他实施例中,或在相同的实施例中,误差信号包括与相对旋转差对应的第一分量和与相对平移差对应的第二分量。在一些实施例中,误差信号包括与相对姿势差对应的单个分量。
在步骤916处,通过例如调整神经网络的一个或多个权重或系数,基于在步骤914处执行的特定单应性与地面真实单应性之间的比较,来修改神经网络。在一些实施例中,可以基于所计算的单应性之间的差(即,误差信号)来修改神经网络,使得较大的误差信号导致对神经网络的较大修改。一般地,修改神经网络使得神经网络变得更加准确,从而减小特定单应性与地面真实单应性之间的差。
图10示出了可采用本文描述的一个或多个实施例的可穿戴AR装置1000的示意图。AR装置1000可以包括左目镜1002A、右目镜1002B、直接附接在左目镜1002A上或附近的左面向前的世界相机1006A、直接附接在右目镜1002B上或附近的右面向前的世界相机1006B、左面向侧的世界相机1006C、右面向侧的世界相机1006D和处理模块1050。AR装置1000的一些或全部组件可以是头戴式的,以便用户可以观看投影的图像。在一个特定的实施方式中,图10中所示的AR装置1000的所有组件被安装到用户可佩戴的单个装置(例如,单个头戴式耳机)上。在另一个实施方式中,处理模块1050与AR装置1000的其他组件物理分离并且通过有线或无线连接通信耦接到AR装置1000的其他组件。例如,处理模块1050可以以各种配置安装,诸如固定地附接到框架、固定地附接到用户佩戴的头盔或帽子、嵌入耳机中或以其他方式可移除地附接到用户(例如,以背包式配置、以皮带耦接式配置等)。
处理模块1050可以包括处理器1052以及诸如非易失性存储器(例如,闪存)的数字存储器,两者均可以用于辅助数据的处理、缓存和存储。该数据可以包括从图像捕获装置(例如,相机1006)、麦克风、惯性测量单元、加速度计、罗盘、GPS单元、无线电装置和/或陀螺仪捕获的数据。例如,处理模块1050可以从相机1006接收(多个)图像1020,或更具体地,从左面向前的世界相机1006A接收(多个)左前图像1020A、从右面向前的世界相机1006B接收(多个)右前图像1020B、从左面向侧的世界相机1006C接收(多个)左侧图像1020C以及从右面向侧的世界相机1006D接收(多个)右侧图像1020D。在一些实施例中,(多个)图像1020可以包括单个图像、一对图像、包括图像流的视频、包括成对图像流的视频等。(多个)图像1020可以在AR装置1000通电时周期性地生成并发送到处理模块1050,或者可以响应于由处理模块1050发送给一个或多个相机的指令而生成。
目镜1002A和1002B可以包括透明或半透明波导,该透明或半透明波导被配置为分别引导来自投影仪1014A和1014B的光。具体地,处理模块1050可以使左投影仪1014A向左目镜1002A输出左投影图像1022A,以及可以使右投影仪1014B向右目镜1002B输出右投影图像1022B。在一些实施例中,每个目镜1002可各自包括与不同颜色和/或不同深度平面对应的多个波导。
相机1006A和1006B可被定位为分别捕获与用户的左眼和右眼的视场基本重叠的图像。因此,相机1006A和1006B的放置可以位于用户的眼睛附近,但是不能太靠近而遮挡用户的视场。替代地或附加地,相机1006A和1006B可以被定位成分别与投影图像1022A和1022B的耦入(incoupling)位置对准。相机1006C和1006D可以定位成捕获用户的侧面的图像,例如在用户的周边视觉中或在用户的周边视觉之外。使用相机1006C和1006D捕获的(多个)图像1020C和1020D不必与使用相机1006A和1006B捕获的(多个)图像1020A和1020B重叠。
在AR装置1000的操作期间,处理模块1050可以使用训练的网络1056基于相机1006中的任何一个捕获的两个图像来计算单应性。估计的单应性可以由处理器1052使用以渲染虚拟内容,该虚拟内容更准确地反映了由于用户移动导致的用户视场的变化。网络1056可以是人工神经网络、卷积神经网络、深度网络或可以通过处理示例而逐渐“学习”的任何类型的网络或系统。在一些实施例中,网络1056包括能够将信号从一者传输到另一者的连接节点的集合。处理器1052可以与单个网络1056通信,或者在一些实施例中,处理器1052可以与多个神经网络通信,诸如第一网络(对应于例如魔法点网)、第二网络(对应于例如点单应性网)以及第三网络(对应于例如重定位网)等。
已经描述了几个示例配置,在不脱离本公开的精神的情况下,可以使用各种修改、替代构造和等同形式。例如,以上元素可以是较大系统的组件,其中其他规则可以优先于或以其他方式修改技术的应用。另外,在考虑以上要素之前、期间或之后,可以采取多个步骤。因此,以上描述不限制权利要求的范围。
如本文和所附权利要求书中所使用的,单数形式“一”、“一个”和“该”包括复数引用,除非上下文另外明确指出。因此,例如,对“一个用户”的引用包括多个这样的用户,并且对“处理器”的引用包括对一个或多个处理器及其本领域技术人员已知的等同形式的引用等。
此外,当在本说明书和所附权利要求书中使用时,词“包括”、“包含”、“含有”旨在指定陈述的特征、整数、组成部分或步骤的存在,但不排除存在或增加一个或多个其他特征、整数、组成部分、步骤、行为或组。
还应理解,本文描述的示例和实施例仅用于说明性目的,并且鉴于其的各种修改或改变将被建议给本领域技术人员并且将被包括在本申请的精神和范围以及所附权利要求的范围之内。

Claims (20)

1.一种用于基于两个图像计算单应性的方法,所述方法包括:
接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像;
基于所述第一图像生成第一点云并且基于所述第二图像生成第二点云;
将所述第一点云和所述第二点云提供给神经网络;以及
由所述神经网络基于所述第一点云和所述第二点云生成所述单应性。
2.根据权利要求1所述的方法,其中,所述第一点云和所述第二点云是二维(2D)点云。
3.根据权利要求2所述的方法,其中,所述第一图像由第一相机在第一时刻捕获,并且其中,所述第二图像由所述第一相机在所述第一时刻之后的第二时刻捕获。
4.根据权利要求2所述的方法,其中,使用第一神经网络生成所述第一点云和所述第二点云,并且其中,所述神经网络是第二神经网络。
5.根据权利要求2所述的方法,其中,先前通过以下方式训练所述神经网络:
关于包含多个点的一个或多个三维(3D)点云中的每个3D点云:
确定在所述多个点的阈值距离内的3D轨迹;
对所述3D轨迹采样以获得特定的第一相机姿势和特定的第二相机姿势,其中所述多个点至少部分地从所述特定的第一相机姿势和所述特定的第二相机姿势可观看到;
基于所述特定的第一相机姿势,将所述多个点投影到第一2D平面上以生成第一2D点云;
基于所述特定的第二相机姿势,将所述多个点投影到第二2D平面上以生成第二2D点云;
基于所述特定的第一相机姿势和所述特定的第二相机姿势,确定所述第一2D点云与所述第二2D点云之间的地面真实单应性;
通过所述神经网络基于所述第一2D点云和所述第二2D点云生成特定单应性;
比较所述特定单应性与所述地面真实单应性;以及
基于所述比较修改所述神经网络。
6.根据权利要求5所述的方法,其中,所述多个3D点云通过对一个或多个几何形状采样而生成。
7.根据权利要求5所述的方法,其中,所述特定的第一相机姿势和所述特定的第二相机姿势具有至少30%的重叠。
8.一种增强现实(AR)装置,包括:
相机;
处理器,其通信地耦接至所述相机并且被配置为执行操作,所述操作包括:
从所述相机接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像;
基于所述第一图像生成第一点云且基于所述第二图像生成第二点云;
将所述第一点云和所述第二点云提供给神经网络;以及
通过所述神经网络基于所述第一点云和所述第二点云生成单应性。
9.根据权利要求8所述的AR装置,其中,所述第一点云和所述第二点云是二维(2D)点云。
10.根据权利要求9所述的AR装置,其中,使用第一神经网络生成所述第一点云和所述第二点云,并且其中,所述神经网络是第二神经网络。
11.根据权利要求9所述的AR装置,其中,先前通过以下方式训练所述神经网络:
关于包含多个点的一个或多个三维(3D)点云中的每个3D点云:
确定在所述多个点的阈值距离内的3D轨迹;
对所述3D轨迹采样以获得特定的第一相机姿势和特定的第二相机姿势,其中所述多个点至少部分地从所述特定的第一相机姿势和所述特定的第二相机姿势可观看到;
基于所述特定的第一相机姿势,将所述多个点投影到第一2D平面上以生成第一2D点云;
基于所述特定的第二相机姿势,将所述多个点投影到第二2D平面上以生成第二2D点云;
基于所述特定的第一相机姿势和所述特定的第二相机姿势,确定所述第一2D点云与所述第二2D点云之间的地面真实单应性;
通过所述神经网络基于所述第一2D点云和所述第二2D点云生成特定单应性;
比较所述特定单应性与所述地面真实单应性;以及
基于所述比较修改所述神经网络。
12.根据权利要求11所述的AR装置,其中,所述多个3D点云是通过对一个或多个几何形状采样而生成。
13.根据权利要求11所述的AR装置,其中,所述特定的第一相机姿势和所述特定的第二相机姿势具有至少30%的重叠。
14.一种非暂时性计算机可读介质,其包括指令,所述指令在由处理器执行时使所述处理器执行操作,所述操作包括:
接收基于第一相机姿势的第一图像和基于第二相机姿势的第二图像;
基于所述第一图像生成第一点云且基于所述第二图像生成第二点云;
将所述第一点云和所述第二点云提供给神经网络;以及
通过所述神经网络基于所述第一点云和所述第二点云生成单应性。
15.根据权利要求14所述的非暂时性计算机可读介质,其中,所述第一点云和所述第二点云是二维(2D)点云。
16.根据权利要求15所述的非暂时性计算机可读介质,其中,所述第一图像由第一相机在第一时刻捕获,并且其中所述第二图像由所述第一相机在所述第一时刻之后的第二时刻捕获。
17.根据权利要求15所述的非暂时性计算机可读介质,其中,使用第一神经网络生成所述第一点云和所述第二点云,并且其中,所述神经网络是第二神经网络。
18.根据权利要求15所述的非暂时性计算机可读介质,其中,先前通过以下方式训练所述神经网络:
关于包含多个点的一个或多个三维(3D)点云中的每个3D点云:
确定在所述多个点的阈值距离内的3D轨迹;
对所述3D轨迹采样以获得特定的第一相机姿势和特定的第二相机姿势,其中所述多个点至少部分地从所述特定的第一相机姿势和所述特定的第二相机姿势可观看到;
基于所述特定的第一相机姿势,将所述多个点投影到第一2D平面上以生成第一2D点云;
基于所述特定的第二相机姿势,将所述多个点投影到第二2D平面上以生成第二2D点云;
基于所述特定的第一相机姿势和所述特定的第二相机姿势,确定所述第一2D点云与所述第二2D点云之间的地面真实单应性;
通过所述神经网络基于所述第一2D点云和所述第二2D点云生成特定单应性;
比较所述特定单应性与所述地面真实单应性;以及
基于所述比较修改所述神经网络。
19.根据权利要求18所述的非暂时性计算机可读介质,其中,所述多个3D点云是通过对一个或多个几何形状采样而生成。
20.根据权利要求18所述的非暂时性计算机可读介质,其中,所述特定的第一相机姿势和所述特定的第二相机姿势具有至少30%的重叠。
CN201880043635.6A 2017-06-28 2018-06-27 用于使用卷积图像变换执行同时定位和映射的方法和系统 Active CN110799991B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762526203P 2017-06-28 2017-06-28
US62/526,203 2017-06-28
PCT/US2018/039804 WO2019005999A1 (en) 2017-06-28 2018-06-27 METHOD AND SYSTEM FOR PERFORMING SIMULTANEOUS MAPPING AND LOCALIZATION USING CONVOLUTIONAL IMAGE TRANSFORMATION

Publications (2)

Publication Number Publication Date
CN110799991A true CN110799991A (zh) 2020-02-14
CN110799991B CN110799991B (zh) 2023-09-05

Family

ID=64738202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880043635.6A Active CN110799991B (zh) 2017-06-28 2018-06-27 用于使用卷积图像变换执行同时定位和映射的方法和系统

Country Status (9)

Country Link
US (2) US10726570B2 (zh)
EP (1) EP3646244A4 (zh)
JP (2) JP7250709B2 (zh)
KR (1) KR102662201B1 (zh)
CN (1) CN110799991B (zh)
AU (1) AU2018292610B2 (zh)
CA (1) CA3066228A1 (zh)
IL (1) IL271519B2 (zh)
WO (1) WO2019005999A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001431A (zh) * 2020-08-11 2020-11-27 天津大学 一种基于梳状卷积的高效图像分类方法
CN113766343A (zh) * 2020-06-01 2021-12-07 辉达公司 使用一个或更多个神经网络进行视频合成
CN116438576A (zh) * 2020-11-11 2023-07-14 索尼互动娱乐股份有限公司 单目姿势预测

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3066228A1 (en) 2017-06-28 2019-01-03 Magic Leap, Inc. Method and system for performing simultaneous localization and mapping using convolutional image transformation
WO2019019157A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated INITIALIZING IMAGE SENSOR IN A ROBOTIC VEHICLE
CN111344716A (zh) * 2017-11-14 2020-06-26 奇跃公司 经由单应性变换适应的全卷积兴趣点检测和描述
US10742959B1 (en) 2017-12-29 2020-08-11 Perceive Corporation Use of machine-trained network for misalignment-insensitive depth perception
GB201804400D0 (en) * 2018-03-20 2018-05-02 Univ Of Essex Enterprise Limited Localisation, mapping and network training
US11017548B2 (en) * 2018-06-21 2021-05-25 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using range images
US11164067B2 (en) * 2018-08-29 2021-11-02 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging
US11003909B2 (en) * 2019-03-20 2021-05-11 Raytheon Company Neural network trained by homographic augmentation
CN110135474A (zh) * 2019-04-26 2019-08-16 武汉市土地利用和城市空间规划研究中心 一种基于深度学习的倾斜航空影像匹配方法和系统
CA3139562A1 (en) * 2019-05-09 2020-11-12 Automobilia Ii, Llc Methods, systems and computer program products for media processing and display
US11003956B2 (en) * 2019-05-16 2021-05-11 Naver Corporation System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression
CN110472668B (zh) * 2019-07-22 2021-02-19 华北电力大学(保定) 一种图像分类方法
CN110426035B (zh) * 2019-08-13 2023-01-24 哈尔滨理工大学 一种基于单目视觉和惯导信息融合的定位及建图方法
US11468585B2 (en) * 2019-08-27 2022-10-11 Nec Corporation Pseudo RGB-D for self-improving monocular slam and depth prediction
CN110610486B (zh) * 2019-08-28 2022-07-19 清华大学 单目图像深度估计方法及装置
US10699715B1 (en) * 2019-12-27 2020-06-30 Alphonso Inc. Text independent speaker-verification on a media operating system using deep learning on raw waveforms
KR20210128269A (ko) 2020-04-16 2021-10-26 삼성전자주식회사 증강 현실(ar) 디바이스 및 증강 현실 디바이스에서 포즈를 예측하는 방법
CN115552477A (zh) 2020-05-01 2022-12-30 奇跃公司 采用施加的分层归一化的图像描述符网络
CN111612066B (zh) * 2020-05-21 2022-03-08 成都理工大学 基于深度融合的卷积神经网络的遥感图像分类方法
US20210407302A1 (en) * 2020-06-30 2021-12-30 Sony Group Corporation System of multi-drone visual content capturing
US11836965B2 (en) * 2020-08-12 2023-12-05 Niantic, Inc. Determining visual overlap of images by using box embeddings
CN112417752B (zh) * 2020-10-29 2022-11-08 济南大学 基于卷积lstm神经网络的云层轨迹预测方法及系统
US20240046074A1 (en) * 2020-11-09 2024-02-08 Automobilia Ii, Llc Methods, systems and computer program products for media processing and display
CN112861690B (zh) * 2021-02-01 2024-02-02 武汉汉达瑞科技有限公司 多方法融合的遥感影像变化检测方法及系统
US11822620B2 (en) 2021-02-18 2023-11-21 Microsoft Technology Licensing, Llc Personalized local image features using bilevel optimization
KR20220122287A (ko) 2021-02-26 2022-09-02 삼성전자주식회사 증강 현실 제공 장치의 포즈 결정 방법 및 장치
CN113393524B (zh) * 2021-06-18 2023-09-26 常州大学 一种结合深度学习和轮廓点云重建的目标位姿估计方法
CN113592756B (zh) * 2021-07-29 2023-05-23 华中科技大学鄂州工业技术研究院 一种消化道共聚焦图像拼接方法
US11941827B2 (en) * 2021-10-19 2024-03-26 Datalogic Ip Tech S.R.L. System and method of 3D point cloud registration with multiple 2D images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103165A (ko) * 2008-03-27 2009-10-01 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
US20140184496A1 (en) * 2013-01-03 2014-07-03 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
CN105205858A (zh) * 2015-09-18 2015-12-30 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法
CN106846416A (zh) * 2017-02-06 2017-06-13 遂昌县睿鼎科技服务有限公司 单机分束双目被动立体视觉精确重构与细分拟合方法
CN106897697A (zh) * 2017-02-24 2017-06-27 深圳市唯特视科技有限公司 一种基于可视化编译器的人物和姿势检测方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US8339467B2 (en) * 2010-03-25 2012-12-25 Dacuda Ag Synchronization of navigation and image information for handheld scanner
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US8818133B2 (en) * 2012-07-11 2014-08-26 Raytheon Company Point cloud construction with unposed camera
US9154773B2 (en) * 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
KR102170689B1 (ko) 2014-01-14 2020-10-27 한화테크윈 주식회사 영상 정합을 위한 특징점 샘플링 방법
US10430961B2 (en) * 2015-12-16 2019-10-01 Objectvideo Labs, Llc Using satellite imagery to enhance a 3D surface model of a real world cityscape
US10306254B2 (en) * 2017-01-17 2019-05-28 Seiko Epson Corporation Encoding free view point data in movie data container
CA3066228A1 (en) 2017-06-28 2019-01-03 Magic Leap, Inc. Method and system for performing simultaneous localization and mapping using convolutional image transformation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103165A (ko) * 2008-03-27 2009-10-01 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
US20140184496A1 (en) * 2013-01-03 2014-07-03 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
CN105205858A (zh) * 2015-09-18 2015-12-30 天津理工大学 一种基于单个深度视觉传感器的室内场景三维重建方法
CN106846416A (zh) * 2017-02-06 2017-06-13 遂昌县睿鼎科技服务有限公司 单机分束双目被动立体视觉精确重构与细分拟合方法
CN106897697A (zh) * 2017-02-24 2017-06-27 深圳市唯特视科技有限公司 一种基于可视化编译器的人物和姿势检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HANI ALTWAIJRY,ET AL: "Learning to Detect and Match Keypoints with Deep Architectures", 《CONFERENCE: BRITISH MACHINE VISION CONFERENCE 2016》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113766343A (zh) * 2020-06-01 2021-12-07 辉达公司 使用一个或更多个神经网络进行视频合成
US11934959B2 (en) 2020-06-01 2024-03-19 Nvidia Corporation Video synthesis using one or more neural networks
CN113766343B (zh) * 2020-06-01 2024-04-09 辉达公司 使用一个或更多个神经网络进行视频合成
CN112001431A (zh) * 2020-08-11 2020-11-27 天津大学 一种基于梳状卷积的高效图像分类方法
CN112001431B (zh) * 2020-08-11 2022-06-28 天津大学 一种基于梳状卷积的高效图像分类方法
CN116438576A (zh) * 2020-11-11 2023-07-14 索尼互动娱乐股份有限公司 单目姿势预测

Also Published As

Publication number Publication date
JP2023082038A (ja) 2023-06-13
KR102662201B1 (ko) 2024-04-30
IL271519B2 (en) 2023-06-01
CN110799991B (zh) 2023-09-05
KR20200024848A (ko) 2020-03-09
AU2018292610A1 (en) 2019-12-19
EP3646244A1 (en) 2020-05-06
IL271519A (en) 2020-02-27
US10726570B2 (en) 2020-07-28
EP3646244A4 (en) 2020-09-30
US20190005670A1 (en) 2019-01-03
CA3066228A1 (en) 2019-01-03
JP7250709B2 (ja) 2023-04-03
US11238606B2 (en) 2022-02-01
JP2020526818A (ja) 2020-08-31
AU2018292610B2 (en) 2022-11-17
US20200302628A1 (en) 2020-09-24
WO2019005999A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
CN110799991B (zh) 用于使用卷积图像变换执行同时定位和映射的方法和系统
US20210344891A1 (en) System and method for generating combined embedded multi-view interactive digital media representations
US20230377183A1 (en) Depth-Aware Photo Editing
CN111465962B (zh) 用于手持式用户设备的增强现实的运动深度
EP2992508B1 (en) Diminished and mediated reality effects from reconstruction
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN111243093A (zh) 三维人脸网格的生成方法、装置、设备及存储介质
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
CN113272713A (zh) 用于执行自改进的视觉测程法的系统和方法
Zhuang et al. A dense stereo matching method based on optimized direction-information images for the real underwater measurement environment
WO2019213392A1 (en) System and method for generating combined embedded multi-view interactive digital media representations
US11410398B2 (en) Augmenting live images of a scene for occlusion
US20230245396A1 (en) System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications
Haji-Esmaeili et al. Large-scale Monocular Depth Estimation in the Wild
WO2023132261A1 (ja) 情報処理システム、情報処理方法および情報処理プログラム
US20230177722A1 (en) Apparatus and method with object posture estimating
KR102648882B1 (ko) 3차원 지도에 대한 모델링 데이터의 경량화 방법
US20230217001A1 (en) System and method for generating combined embedded multi-view interactive digital media representations
Akuha Solomon Aondoakaa Depth Estimation from a Single Holoscopic 3D Image and Image Up-sampling with Deep-learning
Herath et al. Unconstrained Segue Navigation for an Immersive Virtual Reality Experience
KR20230053262A (ko) 2d 현실공간 이미지를 기반의 3d 객체 인식 및 변환 방법과 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
Hu et al. High-Definition 3D Reconstruction in Real-Time from a Moving Depth Sensor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant