CN105849771A - 移动设备上的同步定位与映射 - Google Patents

移动设备上的同步定位与映射 Download PDF

Info

Publication number
CN105849771A
CN105849771A CN201380081725.1A CN201380081725A CN105849771A CN 105849771 A CN105849771 A CN 105849771A CN 201380081725 A CN201380081725 A CN 201380081725A CN 105849771 A CN105849771 A CN 105849771A
Authority
CN
China
Prior art keywords
vehicle
camera
geometric model
mobile device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380081725.1A
Other languages
English (en)
Other versions
CN105849771B (zh
Inventor
P·迈耶
S·利伯克内希特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Priority to CN201910437404.XA priority Critical patent/CN110120072B/zh
Priority to CN202310512328.0A priority patent/CN116485870A/zh
Publication of CN105849771A publication Critical patent/CN105849771A/zh
Application granted granted Critical
Publication of CN105849771B publication Critical patent/CN105849771B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种在真实环境中跟踪包括至少一个相机的移动设备的方法,该方法包括以下步骤:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来执行跟踪过程,其中该跟踪过程确定移动设备相对于真实环境的姿态的至少一个参数。本发明还涉及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法。

Description

移动设备上的同步定位与映射
背景技术
本公开涉及一种在真实环境中跟踪包括至少一个相机的移动设备的方法,并且涉及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法,该方法包括接收与由至少一个相机所捕获的至少一个图像相关联的图像信息。
真实环境的相机姿态估计和/或数字重组是许多应用或领域诸如机器人导航、3D对象重建、增强现实可视化等中常见的富有挑战性的任务。例如,已知系统和应用诸如增强现实(AR)系统和应用可通过提供将计算机生成的虚拟信息与真实环境的视图叠加的可视化来增强真实环境的信息。虚拟信息可以是任何类型的视觉感知数据,诸如对象、文本、图片、视频或它们的组合。真实环境的视图可作为视觉印象由用户的眼睛感知和/或作为由用户所持的相机捕获或在用户所持的设备上附接的一个或多个图像来采集。
相机姿态估计的任务在于计算相机和参考对象(或环境)之间的空间关系或变换。相机运动估计在于计算相机在一个位置与相机在另一位置之间的空间关系或变换。相机运动也被称为相机姿态,该相机姿态描述相机在一个位置相对于同一相机在另一位置的姿态。相机姿态或运动估计也被称为跟踪相机。空间关系或变换描述3D空间中的平移、旋转或它们的组合。
基于视觉的方法被称为用于计算相机姿态或运动的稳健且受欢迎的方法。基于视觉的方法基于由相机所捕获的环境的一个或多个图像来计算相机相对于环境的姿态(或运动)。此类基于视觉的方法依赖于所捕获的图像并且需要图像中的可检测到的视觉特征。
基于计算机视觉(CV)的同步定位与映射(SLAM)(如参考文献[1]所述的)是用于在无需环境的任何预备知识的情况下确定相机相对于真实环境的姿态和/或取向并创建真实环境的几何模型的熟知的技术。真实环境的几何模型的创建也被称为环境的重建。基于视觉的SLAM可促成许多应用,诸如机器人系统或车辆的导航。具体地,支持未知真实环境中的移动增强现实(AR)将是很有前途的技术。
许多SLAM系统必须初始化,以便获得环境模型的初始部分。初始化必须利用相机在采集真实环境的两个图像之间的不同移动来完成。不同移动需要从两个不同相机位置捕获两个图像,该两个不同相机位置相比于到环境的距离具有足够的位移。需注意,仅旋转的相机运动产生不良结果(见参考文献[3])。使用AR中的特别是手持式或移动AR中的SLAM设备的主要限制中的一个主要限制在于其绝不容易使用而需要用户以某种方式移动设备以使系统工作。如Gauglitz等人在参考文献[3]中所指出的,仅旋转的相机移动是用户在真实环境中环顾四周的自然运动并且通常发生在许多AR应用中。然而,仅旋转的相机运动对于单目SLAM可产生不良结果。
此外,单个相机并不测量度量尺度。使用AR中的单目SLAM系统的另一限制在于取决于作为待定因数的尺度的复原的相机姿态和环境的几何模型(见参考文献[4])。待定缩放因数对将虚拟视觉信息准确地叠加到相机图像中的真实环境提出了挑战。
当前,许多城市或建筑物的几何模型是从3D重建或由它们的蓝图获得的。然而,由于城市建设的频繁发展或变化,大多数这些模型并非是最新的。具体地,由于停放车辆随时间变化,因此停车场通常没有几何模型或最新模型。
图4A中示出了示例性场景。用户4a05将他的车辆4a03停放在停车场。在停放车辆之后,用户可使用其配备有相机的移动设备4a04根据基于视觉的跟踪例如SLAM来运行导航或增强现实应用。相机的搜索范围/映射空间由区域4a06(源于用户手中的移动设备)可视化地示出。用户需要在不同移动中手动地移动相机(即,移动设备4a04),以采集至少两个图像以便初始化SLAM(即,根据所采集的两个图像来创建几何模型)。另外,尺度和精确配准对于初始化可能存在问题。
针对AR应用并且尤其针对移动手持式AR应用,已开发出各种基于单目视觉的SLAM系统。它们的使用中常见的挑战和局限性包括SLAM系统的初始化和度量缩放因数的确定。SLAM系统的初始化需要相机的不同移动以采集真实环境的两个图像,使得从两个不同的相机位置捕获两个图像,该两个不同的相机位置相比于到环境的距离具有足够的位移。相机姿态估计和任何所生成几何模型的质量明确地取决于初始化。
实现相机的不同移动以得到合格的SLAM初始化在手持式AR应用中富有挑战性,其中手持相机的用户可能对相机移动的重要性并无意识甚至难于实现不同的移动,如图4A的场景中可能就是这种情况。因此,希望使启动简化或乃至使其对用户不可见。
此外,单个相机并不测量度量尺度。相机姿态和来自基于单目视觉的SLAM的所重建的环境模型取决于待定缩放因数。合适的缩放因数限定真实的相机姿态和重建环境模型在真实世界中的尺寸。
第一熟知的基于单目视觉的SLAM系统是由Davison等人(参考文献[1])开发的。他们需要相机在采集针对区域环境的每个新近观察到的部分的图像之间具有足够的位移。为了确定合适的度量缩放因数,他们引入具有已知几何尺寸的附加标定对象。
Lemaire等人在参考文献[5]中提出使用立体相机系统来解决要求相机移动和确定缩放因数的问题。然而,使用立体相机仅为部分解决方案,因为两个相机之间的位移相对于到环境的距离必须很显著,以便可靠地计算出环境的深度。因此,手持式立体系统将无法完全解决问题,并且需要用户提供附加的不同移动仍为不可或缺的。
Lieberknecht等人在参考文献[6]中通过采用提供与图像像素相关的深度信息的RGB-D相机来将深度信息结合到基于单目视觉的SLAM中,以允许准确缩放的相机姿态估计。可根据已知深度信息来确定缩放因数。然而,相比于正常RGB相机,RGB-D相机设备在手持式设备例如移动电话或PDA中并不常用。另外,应作为集成到手持式设备中的候选者的常见的低成本RGB-D相机通常基于红外投影,诸如来自Microsoft的Kinect系统或来自Asus的Xtion Pro。这些系统为现成的商品廉价消费型设备。
US 8 150 142 B2和US 7 433 024 B2描述了RGB-D传感器的详细的可能的实现方式。然而,在日间于户外使用时,由于日光的存在,这些系统存在问题。
Gauglitz等人在参考文献[3]中开发了可用于一般相机运动和仅旋转的相机运动的相机姿态估计和环境模型生成系统。对于仅旋转的运动,他们的方法创建了真实环境的全景地图,而不是真实环境的3D几何模型。
发明内容
本公开的一个目的在于提供一种在真实环境中跟踪包括至少一个相机的移动设备的方法,以及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法,其中使用SLAM方法的挑战和局限性(诸如初始化)减小并且对于用户来说启动得到简化。
根据一个方面,提供了一种在真实环境中跟踪包括至少一个相机的移动设备的方法,该方法包括:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来执行跟踪过程,其中该跟踪过程确定移动设备相对于真实环境的姿态的至少一个参数。
根据另一方面,提供了一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法,该方法包括:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来生成真实环境的至少一部分的第二几何模型。
根据本发明,在真实环境中跟踪配备有至少一个相机的移动设备和/或使用至少一个相机来生成环境的几何模型通过使用与由至少一个相机所捕获的至少一个图像相关联的图像信息来执行。跟踪移动设备或生成第二几何模型至少部分地根据已知真实环境或真实环境的一部分的第一几何模型来执行。第一几何模型基于由车辆的至少一个传感器所采集的环境数据来创建。具体地,在车辆行驶在环境中时采集环境数据。
移动设备可在用于采集环境数据的采集过程或采集过程的一部分期间被车辆传送。这样,采集过程在移动设备被车辆传送时至少部分地被执行。跟踪移动设备或生成第二几何模型可在环境数据的采集过程或采集过程的一部分之后的某一时间段内执行。某一时间段可为2小时、12小时或24小时。
车辆具体地为可运送一个或多个人或货物的移动式机器。车辆可以是诸如不限于自行车、摩托车、汽车、卡车、铲车、飞机或直升机。车辆可具有或不具有发动机。
采集用于创建第一几何模型的环境数据可在任何时间或仅在满足某些条件时例如在车辆接近导航系统已知的设定目的地时、在车辆的速度低于某一阈值等时开始。某一条件也可以是车辆的若干种状态中的一种状态,例如速度、里程仪、发动机的状态、制动系统、齿轮的位置、光线、飞机逃生椅(即,弹射椅)的状态等。某一条件还可以是移动设备的若干种状态中的一种状态,例如移动设备处于车辆内部或外部、移动设备到目的地的距离、移动设备与车辆运动不一致的突发运动(例如,相对于车辆的突发加速)等。
根据一个实施方案,第一几何模型的至少一部分可根据由至少一个相机所捕获的一个或多个图像而生成。
根据一个实施方案,生成第二几何模型在采集过程或采集过程的一部分之后的设定时间段内被执行,优选地在24小时内被执行。
根据另一个实施方案,生成第二几何模型进一步基于与由至少一个相机所捕获的至少一个另外的图像相关联的所接收的图像信息或进一步基于与至少一个图像相关联的所接收的深度信息。
根据一个实施方案,第二几何模型通过延伸第一几何模型而生成。
优选地,采集过程在车辆正在移动时至少部分地被执行并且传感器数据是在不同车辆位置处从车辆的至少一个传感器采集的。
根据一个实施方案,根据车辆的位置和车辆的至少一个设定目的地来采集环境数据。例如,环境数据在车辆到达至少一个目的地之后被采集,或者环境数据在车辆在距至少一个目的地的距离内的情况下被采集,或者环境数据根据车辆的位置、车辆的速度和至少一个目的地而被采集。
根据一个实施方案,第一几何模型进一步基于与由被放置在真实环境中的另外的相机所捕获的至少一个图像相关联的图像信息而生成,该另外的相机不同于移动设备的相机。
根据一个实施方案,车辆的至少一个传感器包括至少两个车用相机,在车用相机之间具有已知空间关系,并且第一几何模型的度量尺度根据空间关系来确定。
根据另一个实施方案,生成第一几何模型或第一几何模型的一部分由车辆的处理设备来执行,并且第一几何模型从车辆传输至移动设备。例如,第一几何模型经由服务器计算机、经由车辆和移动设备之间的点到点通信或经由广播或多播通信(例如车辆数据)从车辆传输至移动设备。
根据一个实施方案,环境数据从车辆传输至移动设备,并且生成第一几何模型或第一几何模型的一部分在移动设备上执行。例如,环境数据经由服务器计算机或经由车辆和移动设备之间的点到点通信从车辆传输至移动设备。
根据另一个实施方案,环境数据从车辆传输至服务器计算机,并且生成第一几何模型或第一几何模型的一部分在服务器计算机上执行。
根据一个实施方案,第一几何模型具有由车载传感器诸如雷达、距离传感器和/或渡越时间传感器,和/或加速度计,和/或陀螺仪,和/或GPS,和/或星体跟踪器所确定的和/或基于车辆的状态诸如车辆的速度的合适的度量尺度。
例如,提供到目的地的一条或多条路线并采集环境数据,和/或根据所提供的路线中的一条或多条路线来生成第一几何模型。
根据一个实施方案,第一几何模型和第二几何模型中的至少一者至少描述了真实环境的深度信息。
优选地,移动设备为用户便携的设备,尤其为手持式设备、移动电话、头戴式眼镜或头盔、可穿戴设备或植入式设备。
在优选的实施方案中,该方法被适配为用于用于在移动设备上运行的增强现实和/或导航应用的方法。
根据一个实施方案,在跟踪过程中或为了生成第二几何模型,执行基于视觉的跟踪。例如,基于视觉的跟踪为基于视觉的同步定位与映射(SLAM)。基于视觉的跟踪可包括特征提取、特征描述、特征匹配和姿态确定。例如,所使用的特征为以下各项中的至少一者或它们的组合:强度、梯度、边缘、线段、区段、拐角、描述性特征、基元、直方图、极性和取向。
因此,本发明描述了一种支持基于视觉的跟踪或环境重建的方法。本发明所公开的方法还可去除对不同相机移动的要求,以初始化单目SLAM,如上所述。
根据另一方面,本发明还涉及包括软件代码段的计算机程序产品,所述软件代码段被适配为执行根据本发明所述的方法。具体地,软件代码段被包含在非暂态计算机可读介质上。软件代码段可被加载到本文所述的一个或多个处理设备的存储器中。任何所使用的处理设备可经由通信网络例如经由本文所述的服务器计算机或点到点通信进行通信。
附图说明
现在将相对于附图来描述本发明的方面和实施方案,其中:
图1示出了根据本发明的实施方案的使用SLAM的方法的流程图,
图2示出了检测、描述和匹配可用于跟踪或重建方法的特征的示例性实施方案,
图3示出了根据本发明的实施方案的基于由车辆的传感器所采集的环境数据生成环境的几何模型并基于所生成的环境模型来跟踪设备的方法的流程图,
图4A示出了用户将其车辆停放在如上所述的停车场的示例性场景,
图4B示出了根据本发明的实施方案的在停放车辆时的示例性应用场景,
图5示出了基于相机的图像来使一组当前特征与一组参考特征相匹配的跟踪方法的实施方案的流程图,
图6示出了三角测量的标准概念。
具体实施方式
虽然下文参考某些部件描述了各种实施方案,但在实现这些实施方案中的任何实施方案时,也可使用本文所述或对本领域技术人员显而易见的部件的任何其他配置。
在下文中,描述了实施方案和示例性场景,它们不得理解为限制本发明。
增强现实
增强现实系统可通过计算机生成信息来呈现真实环境的增强信息。真实环境可通过提供计算机生成的音频信息来增强。一个示例为基于使用GPS数据或其他跟踪技术通过计算机生成的口头指令在真实环境中对视障者进行导航。计算机生成信息也可以是触觉反馈,例如移动电话的振动。在导航应用中,AR系统可生成振动,以在用户走错路的情况下警告该用户。
公认的增强现实在于通过提供将计算机生成的虚拟视觉信息与真实环境的视觉印象或图像叠加的可视化来在视觉上增强真实环境。虚拟信息可以是任何类型的视觉感知数据,诸如对象、文本、图片、视频或它们的组合。真实环境可作为视觉印象由用户的眼睛捕获或者作为一个或多个图像由用户所佩戴的或在用户所持的设备上附接的相机来采集。虚拟视觉信息在适当时间、适当地点并且以适当方式与相机图像或视觉印象中的真实环境或真实环境的一部分相叠合或叠加,以向用户提供满意的视觉感知。
例如在具有半透明玻璃的熟知的光学透视式显示器中,用户可看到虚拟视觉信息与真实环境的叠加信息。然后用户透过半透明玻璃看到利用融入到玻璃中的虚拟视觉信息增强的真实环境的对象。用户也可在具有相机和正常显示设备诸如显示屏的熟知的视频透视式显示器中看到虚拟信息与真实环境的叠加。真实环境由相机来捕获并且在显示器中虚拟数据与真实环境的叠加被显示给用户。
虚拟视觉信息应在图像内或视觉印象内的期望像素位置处与真实环境相叠加,例如以透视式合适方式,即来源于所观察的真实环境。为了实现这一目标,相机或用户眼睛的姿态即相对于真实环境或真实环境的一部分的取向和位置必须是已知的(例如,见参考文献[2])。此外,优选虚拟视觉信息与真实环境相叠加以实现虚拟视觉信息与真实环境之间的视觉上合适的遮挡感知或深度感知。为此,通常需要真实环境的几何模型或深度地图,如参考文献[2]中所述的。
基于单目视觉(即,基于单个相机)的SLAM是一种用于生成相机姿态并创建针对AR应用的几何环境模型的有前途的技术。单目SLAM对于运行在配备有单个相机的手持式设备上的移动AR应用特别有益,这是因为捕获真实环境的相机图像通常是用于相机姿态估计和环境模型生成的方式。对于光学透视式显示器,在相机与眼睛具有固定关系的情况下,用户眼睛的姿态可根据相机姿态而确定。
本发明的一个示例性场景:
当前,人们通常利用从导航系统提供的指导开车到目的地,就像在一个未知的城市一样。导航系统可具有运行在移动计算设备上或汽车的嵌入式系统上的导航软件。导航系统(或软件)可计算到目的地的一条或多条路线。然而,通常无法在目的地处或其附近找到停车位。因此,人们不得不将车停放在不同于路线最终目的地的另一地点并切换成其他交通方式(例如,步行),以到达最终目的地。在陌生环境中,人们可能有困难或花更多努力来找到从车辆停放地点通往目的地的路线。针对这种情况,本发明提出根据基于由汽车的传感器所采集的环境数据所创建的环境的几何模型来在配备有相机的手持式设备上运行导航。
通常,人们可开车到达他们可能找不到停车位的目的地,因此他们将可能继续开车直到找到免费停车位。然后,人们将从车辆停放地返回到目的地。可在车辆到达目的地之后或时开始用于采集环境数据(例如,图像、GPS数据等)的采集过程并且在停放车辆时(例如,关闭发动机)结束该采集过程。然后,可基于所采集的环境数据来创建目的地和实际停放车辆的地点之间的真实环境的数字几何模型。该几何模型连同配备有相机的手持式设备可用于指导人们通往目的地。
作为进一步的场景,用户将他的车停放在真实环境中,然后可运行其配备有相机的手持式设备上的导航或增强现实(AR)应用。导航和AR应用可能需要设备相对于环境的已知姿态。为此,环境的几何模型可用于确定设备的姿态,如本文前面所述的。
附接至移动设备的相机是用于跟踪设备并重建环境的几何模型的适当传感器。基于视觉的跟踪常常需要环境的已知几何模型并且姿态估计可基于几何模型与相机图像之间的对应关系。基于单目视觉的SLAM可执行真实环境中的相机的跟踪并同时在预先没有环境的几何模型的情况下生成环境的几何模型(见参考文献[1])。然而,必须通过使相机移动不同位移来创建环境的初始模型以初始化单目SLAM。
从头开始手动地初始化单目SLAM很具有挑战性,因为对于用户来说,使手持式设备的相机移动足够的位移并不直观。用户必须手动地初始化单目SLAM。具体地,基于尺度和图像的跟踪或重建可能存在问题。
返回到上述示例性场景并且现在参见图4B,假设有两辆车4b21和4b22停放在停车场(见图4B,描述4b01)。根据本发明的实施方案,在车辆在环境4b10中行驶以寻找停车位时,真实环境4b10的几何模型4b09是由车辆4b11的车用相机4b14的一个或多个图像生成的(见图4B,描述4b02、4b03和4b04)。4b12指示车用相机4b14的视野。所生成的几何模型4b09的范围由描述4b06中的圆点示意性地表示。在停车之后,环境的几何模型4b09在配备有车辆乘客4b13的相机的移动设备4b08处是可用的。4b07示出了附接至移动设备4b08的相机的视野。然后,乘客可使用几何模型4b09或模型4b09的一部分以及由移动设备4b08的相机所捕获的图像来跟踪真实环境中的移动设备4b08、创建真实环境的另一几何模型,和/或扩展几何模型4b09。
图3示出了根据本发明的实施方案的基于由车辆的传感器所采集的环境数据来生成真实环境的几何模型并基于所生成的环境模型来跟踪移动设备的方法的流程图。假设车辆正在真实环境中行驶(图3,步骤301)。
在环境中或在整个环境中驾驶车辆期间,可由被安装在车辆上的一个或多个传感器来采集环境数据ED。可由用户手动地启动、恢复、暂停/或停止环境数据ED的采集过程。在满足某些条件的情况下,采集过程也可自动地启动、恢复、暂停/或停止(步骤302),例如在车辆接近导航系统已知的设定目的地时,或者在车辆的速度低于某一阈值时,等等。某一条件还可以是车辆的若干种状态中的一种状态,例如速度、里程计、发动机的状态、制动系统、齿轮的位置、光线、另一对象到车辆前方或后方的距离、驾驶室门的开/关状态、方向盘锁、手刹、车尾行李箱的开/关状态、飞机逃生椅(即,弹射椅)的状态、飞机机舱压力或上述的组合。某一条件还可以是移动设备408的若干种状态中的一种状态,例如移动设备处于车辆内部或外部、移动设备到目的地的距离、移动设备与车辆运动不一致的突发运动(例如,相对于车辆的突发加速)等。
在满足启动或恢复采集环境数据的一个或多个条件时,或者在用户手动地触发启动或恢复时,环境数据ED的采集被启动或恢复(步骤303)。然后,如果环境数据ED的采集被自动地或手动地触发而必须停止或暂停(步骤304),则停止或暂停采集过程(步骤305)。这些步骤在车辆中执行。
如果环境数据ED对配备有用户(例如,车辆的驾驶员或乘客)的相机的手持式设备可用,则车辆的任何处理器设备(在附图中未示出)基于环境数据ED来生成环境的几何模型Md(步骤307),然后将该模型传输至手持式设备(步骤308),或者将环境数据ED传输至手持式设备(步骤311),然后基于手持式设备中的环境数据ED来生成环境模型Md(步骤312)。
还可将环境数据ED传送至另一计算机例如远离移动设备和车辆的服务器计算机,并且例如由运行在服务器计算机上的应用基于此类服务器计算机上的环境数据ED来创建环境的几何模型Md。在此类配置下,服务器计算机在客户端-服务器架构中与作为客户端设备的移动设备和车辆通信。然后,将环境数据ED和/或几何模型Md从服务器计算机传送至移动设备。
几何模型Md可在环境数据或环境数据的一部分可用的任何时候执行,例如在环境数据的采集过程期间联机,或在采集环境数据之后脱机。例如,在新的环境数据可用的任何情况下,集成新的环境数据以用于生成几何模型Md。
在必须在环境中跟踪手持式设备的情况下(步骤309),假设几何模型Md在手持式设备中可用,则至少部分地根据几何模型Md来执行跟踪(步骤310)。步骤309和310可在手持式设备中执行。
可提供或计算到目的地的一条或多条路线。可根据车辆或手持式设备的当前位置来进一步更新这些路线。目的地可由用户手动地给出或在导航系统中定义。可根据路线来采集环境数据ED和/或创建几何模型MD。例如,仅在用户可能沿路线行进的地点采集环境数据ED的相关部分,和/或创建几何模型MD的相关部分。
环境的几何模型使用来自车辆的传感器的数据:
例如,在环境中驾驶车辆时,真实环境的几何模型可由车辆的深度传感器所提供的环境的深度数据生成,例如来自被安装在车辆中的距离传感器或渡越时间相机。可采用诸如在参考文献[14,15,16]中所公开的许多方法以根据深度数据来重建真实环境的3D表面。可使用推扫式扫描仪来创建3D表面。
真实环境的几何模型(本文中也被称为环境模型)可在环境中驾驶车辆(例如,汽车)时并且通过采用被安装在汽车中的基于视觉的SLAM和至少一个相机来创建或生成。已开发出各种基于视觉的SLAM方法(例如,见参考文献[1,3,4,5,6,11,12,13]中所公开的)并且可采用这些方法以使用由车辆的至少一个相机所捕获的图像来创建环境模型。也可采用车辆的其他传感器来支持对环境模型的构造。
来自基于单目视觉的SLAM的环境的所创建的几何模型取决于待定缩放因数。
使环境模型达到度量尺度所需的合适的缩放因数可通过使用被安装在车辆中的相机在环境中捕获在其间具有已知距离的两点的图像或具有已知物理尺寸的真实对象的图像来有效地确定。例如,可采用交通灯、具有已知3D模型的车辆或其他道路设施(白线距离、道路边的“桩”)来估计缩放因数。
合适的缩放因数也可根据车辆和环境之间的距离来恢复。距离可从车载传感器诸如雷达、距离传感器或渡越时间相机来测量,并且也可用于确定缩放因数。如果捕获两个图像的一个(或两个)相机之间的参考距离已知,则也可确定合适的缩放因数。参考距离例如可从使用车轮的旋转速度的度量里程计或GPS坐标获得。对于立体相机,两个相机中心之间的基线距离可用作参考距离。
如果车辆在环境中的位置已知,则也可确定合适的缩放因数。车辆在环境中的位置可从GPS或从被固定在环境中的传感器(如安全相机)来确定。
现在参见图1,给定至少一个相机,基于由至少一个相机所捕获的图像来创建或生成几何模型和/或计算相机姿态的过程可由特征检测(步骤102或105)、特征描述(步骤102或105)、特征匹配(步骤106)、三角测量(步骤107)和可选的(全局)地图细化来构成,该地图细化调整三角测量位置和/或相机姿态,和/或从三角测量移除和/或添加点。
创建几何模型和/或计算相机姿态的过程也可基于使用立体相机系统来实现。
还可采用来自相机的光流来生成几何模型或支持生成模型。
为了重建环境模型,必须由相机在不同位置处捕获至少两个图像。例如,在步骤101中由相机以姿态PA来捕获图像IA,然后相机移动不同位移M,从而以在不同于姿态PB的位置处的姿态来捕获图像IB(步骤103和104)。
可使用具有高重复性的方法来执行特征检测,以用于识别图像IA和IB中的特征。换句话讲,该方法将选择图像中的与相同物理3D表面对应的一部分作为用于不同视角、不同旋转和/或光照设定的特征(例如,作为SIFT的局部特征描述符,见参考文献[7],形状描述符,见参考文献[8],或技术人员已知的其他方法)的概率很高。通常在尺度空间中即以不同尺度来提取特征。因此,每个特征除其二维位置之外,还具有可重复尺度。此外,可重复取向(旋转)从区域中的围绕特征的像素的强度来计算,例如作为强度梯度的主导方向。
特征描述是将所检测到的图像区域变换成典型的特征描述符,这些特征描述符对某些类型的变化(例如,(不均匀)光照、旋转和遮挡)稳健或不变。确定特征描述符,以便允许特征的比较和匹配。常见方法使用特征的所计算尺度和取向来变换特征描述符的坐标,其提供对旋转和尺度的不变性。例如,描述符可为n维实数向量,其通过连接局部图像强度的函数诸如梯度的直方图(如在参考文献[7]中)来构造。另选地,描述符可为n维二元向量(如在参考文献[9]中)。
此外,每个所检测到的特征可(任选地)与相对于环境和/或相对于相机的先前姿态中的一个姿态的(局部)位置和取向相关联。(局部)位置可从GPS传感器/接收器、IR或RFID三角测量或者通过使用宽带或无线基础结构的定位法来获得。(局部)取向可从诸如指南针、加速度计、陀螺仪或重力传感器获得。由于相机被安装在车辆中,相对于相机的先前姿态中的一个姿态的(局部)位置和取向可从车辆的速度或转向来获得。
在一个图像中,可检测到多个特征。特征匹配是针对一个特征集中的每个特征来找到另一特征集中的具有最相似描述符的特征并将两个特征存储作为对应关系(匹配)。例如,给定在图像IA和IB中检测到并描述的两个特征集FA和FB,目标是针对特征集FA中的每个特征来找到特征集FB中的具有最相似描述符的一个特征。就这一点而言,参见图2,其示出了具有特征c和特征c的相应描述符d(c)以及参考特征r的描述符d(r)的图像CI。
使特征集FA与特征集FB匹配可通过确定特征集FA中的每个相应特征描述符和特征集FB中的每个相应特征描述符之间的相应相似性测量来完成。图像相似性测量的常见示例包括负的或反向差值平方和(SSD)、负的或反向绝对差值和(SAD)、(标准化)互相关和交互信息。相似性的结果为实数。相似性测量结果越大,两个视觉特征越相似。
特征匹配的最简单的方法在于通过穷举搜索找到当前特征描述符的最近邻并选择对应参考特征作为匹配。更先进的方法采用描述符域中的空间数据结构来加速匹配。常见方法使用近似最近邻搜索来代替,例如由空间分割数据结构诸如kd-树所支持的(见参考文献[7])。
在特征匹配之后,创建来自特征集FA和特征集FB的特征之间的对应关系。对应关系可为2D-2D或2D-3D。基于对应关系,确定相对于环境或相对于先前相机姿态中的一个先前相机姿态的相机姿态。此后,通常(但为可选的)具有(全局)细化步骤,该(全局)细化步骤可能重新评估在初始阶段舍弃的对应关系。存在用于细化的多种方法和启发法(见参考文献[10,11])。
特征可不具有相关联的特征描述符(例如,SIFT),见参考文献[7],而可由图像块来表示。特征的比较和匹配可通过使用方法诸如差值平方和(SSD)、归一化互相关(NCC)、绝对值差和(SAD)、交互信息(MI)计算图像块之间的差值(例如,像素强度差)来执行。
在以下的三角测量期间,根据特征对应关系来计算真实环境的几何模型(3D点)和相机姿态。
三角测量是指给定特征在两个或更多个图像上的投影(图像特征)的情况下确定特征在3D空间中的位置的过程。参见图6,例如3D点P通过与每个相机焦点O1和O2相交的线条Lx和Ly在两个相机图像Ix和Iy上投影成图像点Px和Py(见图6)。因此,已知焦点O1和O2和针对两个相机图像所检测的特征对应点Px和Py,可计算线条Lx和Ly并且可由Lx和Ly的交叉点确定点P的3D位置。
创建模型可通过直接使用它们的强度或色值,即不使用抽象概念诸如点、线或斑点特征来注册图像。致密重建方法可构建成本量,其中穷举地测试针对每个像素的多个不同假设(参考文献[12])。它们也可基于先前的稀疏重建(参考文献[13])。致密方法通常计算量很大并且采用GPU实时地运行。
在基于车辆的场景中,来自多个相机的图像可为可用的。常见的设置包括四个车用相机,其中相机背向车辆左对齐、右对齐、前对齐以及后对齐。车用相机可在旋转和平移时相互参照。集束调整可用于基于由多个车用相机所拍摄的图像来细化环境的重建模型,尤其是对于具有已知空间关系的多个相机。在参考文献[23]中已评述各种集束调整方法,并且已在参考文献[24]中公开若干个实施细节。
为了生成环境的几何模型,被安装在车辆上的一个或多个相机可为标定的或非标定的。相机标定计算非线性系数和线性系数,这些系数将具有已知外观、几何结构和姿态(相对于相机)的真实世界对象映射到图像传感器上。在将一个或多个相机用于3D重建之前,通常执行标定程序以标定一个或多个相机。还可同时使用非标定相机图像来执行3D重建(见参考文献[21])。还可在采集图像期间改变相机的参数(例如,通过放大或聚焦),以用于3D重建[22]。
来自基于车辆的重建的优质几何模型:
在大多数情况下,基于由车辆的传感器捕获的环境数据所创建的未知环境的几何模型在准确性和稳定性方面应优于由手持式移动设备所创建的模型。这是因为车辆中存在可用于交叉检查重建过程的(中间)结果的更多个传感器。例如,对应关系可通过来自同一时间的两个相机图像之间的叠加或通过根据里程计预测对象位置来验证;具体地,前轮的转向角和车辆的速度可用于预测某一真实对象的图像可如何从一个相机帧(相机图像)移动到另一相机帧,其中该预测取决于真实对象相对于相机的深度。
另外,汽车的运动比手持式设备的运动更受约束。由于更大质量并且从而更强惯性(相比于移动手持式设备),因此可利用少于六个自由度(即,用于平移的三个自由度和用于旋转的三个自由度)和约束性运动而很好地进行近似。由于车辆通常在2D地平面上移动并且不“跳跃”或“滚动”,因此通常两个自由度足以模拟平移运动,并且一个自由度足以模拟旋转移动。当然,如果必要的话,车辆的运动常常由完整的六个自由度来模拟。
基于视觉的跟踪(可在移动设备中执行):
基于视觉的跟踪的标准方法可被分成四个主要构件:特征检测、特征描述、特征匹配和姿态估计。具有真实环境或真实环境的一部分的已知几何模型可支持基于标准视觉的跟踪,以确定相机相对于环境的姿态。
另外,还可采用来自相机的光流以计算环境中的相机姿态或运动或支持相机姿态估计(见参考文献[20])。
特征检测也被称为特征提取。特征是例如但不限于强度、梯度、边缘、线段、区段、拐角、描述性特征或任何其他类型的特征、基元、直方图、极性或取向、或者它们的组合。
为了确定相机的姿态,必须由相机以待确定的姿态来捕获当前图像。首先,执行特征检测以识别当前图像中的特征。特征描述是将所检测到的图像区域变换成典型的特征描述符。确定特征描述符来允许特征的比较和匹配。一个重要任务是特征匹配。给定在当前图像中检测到并根据其描述的当前特征,目标在于找到在将被称为参考特征的一组所提供特征中的与相同物理3D或2D表面对应的特征。参考特征可从真实环境的参考几何模型中获得。参考几何模型基于车辆的传感器而获得。参考特征也可来自由相机所捕获的其他图像(例如,由相机以不同于捕获当前图像所处的姿态的姿态所捕获的图像)中的一个图像,或来自预先定义的特征列表。
使当前特征与参考特征相匹配可通过确定每个相应当前特征描述符和每个相应参考特征描述符之间的相应相似性测量来完成。在完成特征匹配之后,创建来自当前图像的特征和参考特征之间的对应关系。对应关系可为2D-2D或2D-3D。基于对应关系,确定相对于环境或其他相机姿态中的一个其他相机姿态的相机姿态。
此外,真实环境的第二几何模型可基于当前图像和由相机所捕获的其他图像中的一个图像的特征对应关系通过三角测量由参考几何模型生成或扩展。当前图像和其他图像中的一个图像必须具有重叠部分,然后基于三角测量来重建重叠部分。可将重建部分添加至参考几何模型。
现在参见图5(结合图2),图5示出了用于使一组当前特征与一组参考特征相匹配的标准相机跟踪方法的流程图。在步骤501中,提供由相机所捕获的真实环境的当前图像CI。然后下一步骤502检测并描述当前图像CI中的特征(可选的:根据所估计的模型特征位置的已选择的提取),其中每个所得的当前特征c具有特征描述符d(c)和在相机图像中的2D位置。在步骤503中提供一组参考特征r,每个参考特征具有描述符d(r)并且可选地具有相对于真实环境或先前相机姿态中的一个先前相机姿态的(局部)位置和/或取向。(局部)位置可从GPS传感器/接收器、IR或RFID三角测量或者通过使用宽带或无线基础结构的定位法来获得。(局部)取向可从传感器设备诸如指南针、加速度计、陀螺仪和/或重力传感器获得。参考特征可从参考图像或几何模型或有关真实环境或环境的一部分的其他信息提取。需注意,在视觉搜索和分类任务的情况下,相对于真实环境的位置和/或取向是可选的。在步骤504中,将来自步骤502的当前特征c和来自步骤503的参考特征r进行匹配。例如,对应每个当前特征,搜索相对于某一距离测量具有与当前特征的描述符最接近的描述符的参考特征。根据步骤505,可基于特征匹配(对应关系)来确定相机的位置和取向。这可支持使空间注册的虚拟3D对象结合到相机图像中的增强现实应用。
从车辆到移动设备的数据切换(可在移动设备和车辆中执行):
如果在车辆在环境中行进期间由车辆的传感器所捕获的环境数据是可用的,则可将环境数据传输至准备下车的用户(例如,车辆的乘客或驾驶员)的移动设备。将数据从车辆传输至移动设备可经由服务器计算机或基于点到点通信。可基于移动设备中所接收的环境数据来重建环境的几何模型。用户继而可使用几何模型来进行跟踪。
也可基于环境数据在车辆中生成几何模型,然后将其经由服务器计算机或基于点到点通信传输至移动设备。
还可基于环境数据来在服务器计算机中生成几何模型。在这种情况下,将所捕获的环境数据从车辆传输至服务器计算机,然后将所生成的几何模型从服务器计算机传输至移动设备。
点到点通信可经由无线连接或有线连接、基于推送或基于拉取、经由单播通信或广播通信。后者允许例如移动设备的池同时配备有来自车辆的相同数据。这些移动设备例如可为其他乘客的移动设备或用户的辅助设备。例如,点到点通信可为基于蓝牙的通信或基于USB缆线的通信。
从车辆移交数据(几何模型或环境数据)或将数据移交至移动设备可由用户手动地触发或自动触发。数据(例如,模型)传输的自动触发可基于到导航系统已知的目的地的距离、车辆的速度、发动机的状态、车辆的行驶方向(例如,向后行驶)、车辆与街道的相对方向(例如,行驶至单向停车位或停车道)、另一对象到车辆前方或后方的距离、驾驶室门的开/关状态、方向盘锁、手刹、车尾行李箱的开/关状态,或上述的组合。例如在从有线连机器将其移除或检测到与车辆的一般运动不兼容的上升运动(例如,在驾驶员下车时)时,自动触发还可基于移动设备的状态。用于触发数据(例如,模型)传输的状况的检测或确定可由车辆、移动设备或两者来执行。数据(模型)传输的过程可由车辆、移动设备或两者来发起。
在所描述的应用示例中,相比于参考图4A所述的特定场景,本发明的一个方面在于在停车场中跟踪移动设备可由在车辆行驶至停车场期间由车辆的传感器所采集的环境数据所支持。
如图4B所示,用户4b13正驾驶车辆4b11行往停车场,即真实环境。相机4b14(车辆的一个或多个传感器)被安装在车辆的前方。在搜索停车位并停车时(见图4B,描述4b02),由相机4b14捕获环境数据(例如,停车场的图像),并且基于环境数据来生成停车场的几何模型。可以合适的度量尺度来创建几何模型,例如基于车辆所提供的里程仪和GPS数据。合适的缩放因数可限定真实的相机姿态和重建几何模型在真实世界中的尺寸。
在停车之后(见图4B,描述4b05),几何模型被传输至用户的配备有相机的移动设备4b08(例如,智能电话)(或从所传输的环境数据在用户移动设备4b08处生成)。然后,在停车场中跟踪移动设备可基于由移动设备4b08的相机所捕获的至少一个图像在理想情况下无缝地继续(见图4B,描述4b05)。相比于于现有方法,本发明向用户在其移动设备上提供环境的初始几何模型和最新几何模型。这便消除了要求约束性相机移动的初始步骤的需要。
当前,通常从3D重建过程来获得真实环境的几何模型,例如城市或建筑物。然而,由于城市建设的频繁发展或变化,大多数这些模型并非是最新的。具体地,由于停放车辆随时间变化,因此停车场通常没有几何模型或最新模型。就这一点而言,本发明提供了将支持更准确地跟踪相机的最新模型。
车辆可以是可运送人或货物的移动式机器。车辆可以是例如但不限于自行车、摩托车、汽车、卡车或铲车。车辆可以具有或不具有发动机。
采集用于创建第一几何模型的环境数据可在任何时间或仅在满足某些条件时例如在车辆接近导航系统已知的目的地时和/或在车辆的速度低于某一阈值等时开始。某一条件也可以是车辆的某些状态中的一种状态,例如速度、发动机的状态、制动系统的状态、齿轮的位置、光线等。某一条件还可以是移动设备的状态中的一种状态,例如移动设备处于车辆内部或外部、移动设备到目的地的距离等。
环境数据可根据车辆的位置和包含至少一个目的地的预定义的路线来采集。
在一个具体实施中,在车辆到达至少一个目的地之后,采集环境数据或者可开始环境数据的采集过程的至少一部分。在另一个具体实施中,在车辆在距至少一个目的地的距离内的情况下,采集环境数据或者可开始环境数据的采集过程的至少一部分。具有了车辆的速度、车辆的位置和至少一个目的地,可估计车辆将到达至少一个目的地的时间段。在另一个具体实施中,如果时间段小于阈值,则采集环境数据或者可开始环境数据的采集过程的至少一部分。
生成第一几何模型或第一几何模型的一部分可在车辆的处理设备处执行,并且将第一几何模型从车辆传输至移动设备。第一几何模型可经由服务器计算机或基于点到点通信从车辆传输至移动设备。第一几何模型或第一几何模型的一部分也可在环境数据经由服务器计算机或基于点到点通信从车辆传输至移动设备之后,由移动设备的一个或多个处理设备生成。
生成第一几何模型或第一几何模型的一部分可由服务器计算机来执行,并且将环境数据从车辆传输至服务器计算机。然后,将第一几何模型例如经由车辆或基于点到点通信从服务器计算机传输至移动设备。
车辆的一个或多个传感器可以是能够捕获可用于生成几何模型或其一部分的环境数据的任何类型的传感器。传感器的实例可以是但不限于光学相机、基于红外光谱、光学光谱、紫外光谱、x射线光谱和/或γ射线光谱的相机、RGB-D相机、深度传感器、渡越时间相机和超声波传感器。
环境数据可以是描述真实环境的至少一个视觉特征或几何特征的任何类型的数据。视觉特征或几何特征可以是形状、颜色、距离等中的一者。环境数据可以是环境的光学图像、环境和车辆之间的距离、车辆在环境中的取向、或者车辆在真实环境中的速度。
生成第一几何模型可在环境数据或环境数据的一部分可用的任何时候执行,例如在采集环境数据期间联机,或在采集环境数据之后脱机。
第一几何模型可具有合适的度量尺度,该度量尺度根据车载传感器诸如雷达、距离传感器或渡越时间相机来确定。合适的度量尺度可通过使用被安装在车辆中的相机在环境中捕获其间具有已知距离的两点的图像或具有已知物理尺寸的真实对象的图像来确定。
第一几何模型也可根据车辆相对于环境的姿态来生成。车辆相对于环境的位置可从GPS获得。然而,GPS并不准确,尤其是在车辆处于建筑物内部时。存在类似于相机(例如,安全相机)的可被安装在环境中并且在环境中具有已知的位置的许多不同的传感器。可基于由安全相机所捕获的车辆图像来执行对象识别或姿态估计,以便确定车辆相对于环境的姿态。
此外,被定位在真实环境中的视觉系统(例如,一个或多个安全相机)可用于捕获可用于创建第一几何模型的至少一部分的环境数据。
在另一具体实施中,被定位在真实环境中的视觉系统(例如,安全相机)也可用于捕获用于创建第一几何模型的环境数据,而不使用由车辆的至少一个传感器所采集的数据。例如,用户可持有包含相机的移动设备,并进入安置有一个或多个安全相机的真实环境。真实环境的最新环境数据可在采集过程期间由视觉系统(例如,一个或多个安全相机)捕获并且第一几何模型可基于所捕获的环境数据来创建。可在采集过程或采集过程的一部分之后的设定时间段内(优选地,在24小时内)根据所创建的第一几何模型和移动设备的相机所捕获的图像来跟踪移动设备。
车辆相对于环境的姿态还可根据行驶在路上的车辆的特定特性来获得。例如,可假设车辆的移动为平行于地平面的。车辆的取向可根据2D街道地图来确定。
在一个实施方案中,仅用户按其路线可能经过的地点的环境数据可被采集并被添加至第一几何模型。
在另一个实施方案中,环境数据可根据导航数据例如路线、起始位置或目的地被采集。例如,可仅采集沿路线的环境数据,从而第一几何模型可仅针对沿路线的环境信息。导航数据可由用户手动地输入到车辆和/或设备。
在一个实施方案中,第一几何模型的生成可至少部分地基于在采集过程中由车辆的至少一个传感器所采集的车辆状态数据。例如,用于生成第一几何模型的环境数据的至少一部分可由并非车辆的一部分的独立传感器采集。所采集的环境数据的至少一部分可与由车辆的一个或多个传感器所采集的车辆状态数据一起使用,以便创建第一几何模型的至少一部分。例如,由坐在车里的乘客所持的独立于车辆的相机可捕获真实环境的图像,而车辆的里程仪和/或速度传感器可用于采集有关车辆的里程数据或速度数据。真实环境的图像和里程数据或速度数据可一起被使用,以创建第一几何模型的至少一部分。这便可发挥乘客所持的相机具有相对于车辆的已知移动或位置的优势。移动可以是相机相对于车辆静止(无运动)。相机也可能具有相对于车辆的运动。可在车辆的坐标系中跟踪相机。例如,图像捕获设备可被安装在车辆中并确定相机相对于车辆的姿态。在另一示例中,可使用由相机所捕获的车辆的至少一部分的图像来确定相机相对于车辆的姿态。
在另一个实施方案中,由车辆的至少一个传感器所采集的数据可能不足以创建第一几何模型的至少一部分。类似地,由移动设备的相机所采集的数据也可能不足以创建第一几何模型的至少一部分。然而,可同时使用由车辆的至少一个传感器和由移动设备的相机所采集的数据来创建第一几何模型的至少一部分。例如,可能无法通过仅使用由车辆的相机所捕获的一个图像或通过仅使用由移动设备的相机所捕获的一个图像来创建第一几何模型。然而,可通过使用由车辆的相机所捕获的图像和由移动设备的相机所捕获的图像来创建第一几何模型。
另外,可能无法使用由车辆的至少一个传感器所采集的数据或由移动设备的相机所采集的数据来创建具有合适的度量尺度的第一几何模型的至少一部分。然而,可同时使用由车辆的至少一个传感器和由移动设备的相机所采集的数据来创建具有合适的度量尺度的第一几何模型的至少一部分。如上述示例,可能无法通过使用由车辆的传感器所捕获的速度或里程来创建第一几何模型。可能无法通过仅使用由移动设备的相机所捕获的图像来创建具有合适的度量尺度的第一几何模型。然而,可使用由移动设备的相机所捕获的图像和有关车辆的里程数据或速度数据来创建具有合适的度量尺度的第一几何模型。
将第一几何模型传输至移动设备可由用户手动地触发或自动触发。自动触发可基于到导航系统已知目的地的距离、车辆的速度、发动机的状态、车辆的方向(例如,向后行驶)、车辆与街道的相对方向(行驶至单向停车位或停车道)、另一对象到车辆前方或后方的距离、驾驶室门的开/关状态、方向盘锁、手刹、车尾行李箱的开/关状态,或上述的组合。
本发明对在设备上运行的移动AR和导航应用尤其有益。
根据本发明的移动设备可来自用户可能携带的各种设备,诸如手持式移动设备(例如,移动电话)、头戴式眼镜或头盔、和可穿戴设备。
在环境中跟踪配备有至少一个相机的移动设备是为了确定设备的姿态,即相对于环境的位置和取向,或者为了确定设备的运动,即相对于设备的其他位置中的一个其他位置的位置和取向。由于相机与移动设备具有固定的空间关系,因此跟踪移动设备可由基于视觉的跟踪来实现,例如使用第一几何模型和由至少一个相机所捕获的图像以确定相机的姿态。相机相对于环境的姿态可基于几何模型和相机图像之间的对应关系来计算。
环境的第二几何模型可使用第一几何模型并使用由至少一个相机所捕获的不具有深度数据的至少两个图像或使用具有深度数据的至少一个图像来创建。为此,可首先确定在捕获至少两个图像或至少一个图像时的相机姿态。然后,可使用至少两个图像或使用至少一个图像和相关联的深度数据基于三角测量来构建第二几何模型。
使用不具有深度数据的一个所捕获相机图像来生成环境的具有待定度量尺度的模型信息。具有待定度量尺度的模型信息可用于在相机经受纯旋转时估计相机姿态。
第一几何模型或该模型的一部分可能不覆盖感兴趣的真实环境的整个区域。第二几何模型可通过延伸第一几何模型或第一几何模型的一部分而创建,以覆盖环境的更多区域。
基于视觉的跟踪的标准方法包括特征提取、特征描述、特征匹配和姿态确定。
特征为例如强度、梯度、边缘、线段、区段、拐角、描述性特征或任何其他类型的特征、基元、直方图、极性或取向。
跟踪移动设备和/或生成第二几何模型还可由基于单目视觉的同步定位与映射(SLAM)来实现。生成第二几何模型还可包括不同时运行但使用成批/准脱机重建方法的重建算法。
基于单目视觉的SLAM是在真实环境中移动单个相机以确定相机相对于真实环境的姿态并创建真实环境的模型。通常在环境的至少一部分具有未知几何模型时采用SLAM以用于跟踪。
相机在真实环境中的姿态描述了相对于环境或环境的一部分的位置和取向。在3D空间中,由三个参数例如沿三个正交轴的位移来限定位置,并且由三个欧拉角参数来限定取向。还可在其他数学公式中表示取向,例如轴角和四元数。通常可使旋转的数学表示相互转换。本发明中的姿态可由位置和取向在三维空间中的固有的六个参数中的至少一个参数来限定。
所提出的发明可简单地被应用于被安装到提供图像格式(彩色或灰度)的移动设备的任何相机。并不限于用于提供RGB格式的彩色图像的捕获系统。也可适用于任何其他颜色格式并且也适用于单色图像,例如适用于提供灰度格式图像的相机。
真实环境可为真实世界中的任何真实场景,诸如自然场景、室内环境场景或城市场景。真实环境包括一个或多个真实对象。真实对象诸如地点、建筑物、树木或山脉位于并占据真实环境中的区域。
环境的几何模型(也被称为模型或地图)至少描述环境的深度信息。模型还可包括但不限于以下属性中的至少一个属性:形状、对称性、平面性、几何尺寸、颜色、质地和密度。几何模型可包括各种特征。
几何模型还可包括有关真实环境(的一部分)的质地、颜色和/或它们的组合(即,材料)的信息。第一模型的很常见的表示组合用于提供几何结构的稀疏空间描述的3D点。几何模型还可具有相关联的特征描述符,该特征描述符描述围绕3D点的图像块中的特征的质地(作为材料的一部分)。特征描述符是描述图像或图像块中的局部特征的数学表示,诸如SIFT(尺度不变特征转换)、SURF(快速稳定特征)和LESH(基于局部能量的形状直方图)。特征是例如但不限于强度、梯度、边缘、线段、区段、拐角、描述性特征或任何其他类型的特征、基元、直方图、极性或取向。
几何模型可进一步被表示为包括3D顶点和由这些顶点所扩展成的多边形面和/或边缘的模型。模型的边缘和面还可被表示为样条或NURBS表面。几何模型还可由一组3D点来表示。点可承载有关它们颜色或强度的附加信息。
贯穿本文档,其描述了捕获图像并提供或接收与图像相关联的图像信息。技术人员已知这可包括提供或接收图像、图像的一部分和/或图像的特征的任何经处理或未经处理的信息(版本),该信息允许姿态估计(跟踪)或重建。本发明不需要提供或接收任何未经加工的初始图像数据。因此,处理包括压缩(例如,JPEG、PNG、ZIP)、加密(例如,RSA加密、Schnorr签名、El-Gamal加密、PGP)、转换成另一色彩空间或灰度、基于特征描述符来修剪或缩放图像或转换成稀疏表示、提取中的任一者,以及它们的组合。所有这些图像处理方法可被任选地执行并且由与图像相关联的图像信息的术语所涵盖。
参考文献
1.Davison,Andrew J.等人“MonoSLAM:Real-time single cameraSLAM.”Pattern Analysis and Machine Intelligence,IEEETransactions on 29.6(2007):第1052页-1067页。
2.SanniSiltanen,Theory and applications of marker-based augmentedreality.Espoo 2012.VTT Science 3.http://www.vtt.fi/inf/pdf/science/2012/S3.pdf
3.Gauglitz,Steffen等人“Live tracking and mapping from both generaland rotation only camera motion.”Mixed and Augmented Reality(ISMAR),2012IEEE International Symposium on.IEEE,2012.
4.Strasdat,Hauke,J.M.M.Montiel,and Andrew J.Davison.“Scaledrift-aware large scale monocular SLAM.”Proceedings ofRobotics:Science and Systems(RSS).第2卷.No.3.2010.
5.Lemaire,Thomas等人“Vision-based slam:Stereo and monocularapproaches.”International Journal of Computer Vision 74.3(2007):第343页-364页。
6.Lieberknecht,Sebastian等人“RGB-D camera-based parallel trackingand meshing.”Mixed and Augmented Reality(ISMAR),2011 10thIEEE International Symposium on.IEEE,2011.
7.Lowe,David G.“Distinctive Image Features from Scale-InvariantKeypoints.”International Journal of Computer Vision 60.2(2004):第91页-110页。
8.Bosch,A,Andrew Zisserman,and X Munoz.“Representing shapewith a spatial pyramid kernel.”Image Processing 5(2007):第401页-408页。
9.Leutenegger,Stefan,Margarita Chli,and Roland Y.Siegwart.“BRISK:Binary robust invariant scalable keypoints.”ComputerVision(ICCV),2011IEEE International Conference on.IEEE,2011.
10.Triggs,Bill等人“Bundle adjustment-a modern synthesis."Visionalgorithms:theory and practice(2000):第153页-177页。
11.Klein,Georg,and David Murray.“Parallel tracking and mapping forsmall AR workspaces.”Mixed and Augmented Reality,2007.ISMAR2007.6th IEEE and ACM International Symposium on.IEEE,2007.
12.Newcombe,Richard A.,Steven J.Lovegrove,and Andrew J.Davison.“DTAM:Dense tracking and mapping in real-time.”ComputerVision(ICCV),2011IEEE International Conference on.IEEE,2011.
13.Newcombe,Richard A.,and Andrew J.Davison.“Live densereconstruction with a single moving camera.”Computer Vision andPattern Recognition(CVPR),2010IEEE Conference on.IEEE,2010.
14.Fuchs,Stefan,and Stefan May.“Calibration and registration forprecise surface reconstruction with time-of-flight cameras.”International Journal of Intelligent Systems Technologies andApplications 5.3(2008):第274页-284页。
15.Hilton,Adrian等人“Reliable surface reconstruction from multiplerange images.”Computer Vision—ECCV'96(1996):第117页-126页。
16.Whitaker,Ross T.“A level-set approach to 3D reconstruction fromrange data.”International Journal of Computer Vision 29.3(1998):第203页-231页。
17.US 8150142 B2
18.US 7433024 B2
19.Snavely,Noah,Steven M.Seitz,and Richard Szeliski.“Photo tourism:exploring photo collections in 3D.”ACM Transactions on Graphics(TOG).第25卷.No.3.ACM,2006.
20.Chojnacki,Michael J.Brooks Wojciech,and Luis Baumela.“3dreconstruction from optical flow generated by an uncalibrated cameraundergoing unknown motion.”
21.Hartley,Richard.“Euclidean reconstruction from uncalibratedviews.”Applications of invariance in computer vision(1994):第235页-256页。
22.Pollefeys,Marc等人“Automated reconstruction of 3D scenes fromsequences of images.”ISPRS Journal of Photogrammetry and RemoteSensing 55.4(2000):第251页-267页。
23.Triggs,Bill等人“Bundle adjustment—a modern synthesis.”Visionalgorithms:theory and practice.Springer Berlin Heidelberg,2000.第298页-372页。
24.Lourakis,Manolis,and Antonis Argyros.The design andimplementation of a generic sparse bundle adjustment softwarepackage based on the levenberg-marquardt algorithm.第1卷.No.2.Technical Report 340,Institute of Computer Science-FORTH,Heraklion,Crete,Greece,2004.

Claims (27)

1.一种在真实环境中跟踪包括至少一个相机的移动设备的方法,包括:
-接收与由所述至少一个相机所捕获的至少一个图像相关联的图像信息,
-基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成所述真实环境的至少一部分的第一几何模型,所述车辆不同于所述移动设备,
-基于与所述至少一个图像相关联的所述图像信息并且至少部分地根据所述第一几何模型来执行跟踪过程,其中所述跟踪过程确定所述移动设备相对于所述真实环境的姿态的至少一个参数。
2.一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法,包括:
-接收与由所述至少一个相机所捕获的至少一个图像相关联的图像信息,
-基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成所述真实环境的至少一部分的第一几何模型,所述车辆不同于所述移动设备,
-基于与所述至少一个图像相关联的所述图像信息并且至少部分地根据所述第一几何模型来生成所述真实环境的至少一部分的第二几何模型。
3.根据权利要求1或2所述的方法,其中跟踪所述移动设备或生成所述第二几何模型在所述采集过程或所述采集过程的一部分之后的设定时间段内执行,优选地在24小时内执行。
4.根据权利要求2或3所述的方法,其中生成所述第二几何模型进一步基于与由所述至少一个相机所捕获的至少一个另外的图像相关联的所接收的图像信息或进一步基于与所述至少一个图像相关联的所接收的深度信息。
5.根据权利要求2至4中一项所述的方法,其中所述第二几何模型通过延伸所述第一几何模型而生成。
6.根据权利要求1至5中一项所述的方法,其中所述第一几何模型的至少一部分根据由所述至少一个相机所捕获的一个或多个图像而生成。
7.根据权利要求1至6中一项所述的方法,其中所述采集过程在所述移动设备正由所述车辆传送时至少部分地被执行。
8.根据权利要求1至7中一项所述的方法,其中所述采集过程在所述车辆正在移动时至少部分地被执行并且传感器数据是在不同车辆位置处从所述车辆的所述至少一个传感器采集的。
9.根据权利要求1至8中一项所述的方法,其中所述环境数据根据所述车辆的位置和所述车辆的至少一个设定目的地而被采集。
10.根据权利要求9所述的方法,其中
-所述环境数据在所述车辆到达所述至少一个目的地之后被采集,或者
-所述环境数据在所述车辆在距所述至少一个目的地的距离内的情况下被采集,或者
-所述环境数据根据所述车辆的所述位置、所述车辆的速度和所述至少一个目的地而被采集。
11.根据权利要求1至10中一项所述的方法,其中所述第一几何模型进一步基于与由被放置在所述真实环境中的另外的相机所捕获的至少一个图像相关联的图像信息而生成。
12.根据权利要求1至11中一项所述的方法,其中所述车辆的所述至少一个传感器包括至少两个车用相机,在车用相机之间具有已知空间关系,并且所述第一几何模型的度量尺度根据所述空间关系来确定。
13.根据权利要求1至12中一项所述的方法,其中生成所述第一几何模型或所述第一几何模型的一部分由所述车辆的处理设备来执行,并且所述第一几何模型从所述车辆传输至所述移动设备。
14.根据权利要求13所述的方法,其中所述第一几何模型经由服务器计算机或经由所述车辆和所述移动设备之间的点到点通信从所述车辆传输至所述移动设备。
15.根据权利要求1至14中一项所述的方法,其中所述环境数据从所述车辆传输至所述移动设备,并且生成所述第一几何模型或所述第一几何模型的一部分在所述移动设备上执行。
16.根据权利要求15所述的方法,其中所述环境数据经由服务器计算机或经由所述车辆和所述移动设备之间的点到点通信从所述车辆传输至所述移动设备。
17.根据权利要求1至16中一项所述的方法,其中所述环境数据从所述车辆传输至服务器计算机,并且生成所述第一几何模型或所述第一几何模型的一部分在所述服务器计算机上执行。
18.根据权利要求1至17中一项所述的方法,其中所述第一几何模型具有从车载传感器诸如雷达、距离传感器和/或渡越时间传感器所确定的和/或基于所述车辆的状态诸如所述车辆的速度的合适的度量尺度。
19.根据权利要求1至18中一项所述的方法,其中
-到目的地的一条或多条路线被提供,并且
-根据所提供的路线中的一条或多条路线,所述环境数据被采集和/或所述第一几何模型被生成。
20.根据权利要求1至19中一项所述的方法,其中所述第一几何模型和所述第二几何模型中的至少一者至少描述所述真实环境的深度信息。
21.根据权利要求1至20中一项所述的方法,其中所述移动设备为用户便携的设备,尤其为手持式设备、移动电话、头戴式眼镜或头盔、或可穿戴设备。
22.根据权利要求1至21中一项所述的方法,其中所述方法被适配为用于用于在所述移动设备上运行的增强现实和/或导航应用的方法。
23.根据权利要求1至22中一项所述的方法,其中在所述跟踪过程中或为了生成所述第二几何模型,执行基于视觉的跟踪。
24.根据权利要求23所述的方法,其中所述基于视觉的跟踪为基于视觉的同步定位与映射(SLAM)。
25.根据权利要求23或24所述的方法,其中所述基于视觉的跟踪包括特征提取、特征描述、特征匹配和姿态确定。
26.根据权利要求25所述的方法,其中所使用的特征为以下各项中的至少一者或它们的组合:强度、梯度、边缘、线段、区段、拐角、描述性特征、基元、直方图、极性和取向。
27.一种包括软件代码段的计算机程序产品,所述软件代码段被适配为执行根据权利要求1至26中任一项所述的方法。
CN201380081725.1A 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统 Active CN105849771B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910437404.XA CN110120072B (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统
CN202310512328.0A CN116485870A (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/077483 WO2015090420A1 (en) 2013-12-19 2013-12-19 Slam on a mobile device

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN202310512328.0A Division CN116485870A (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统
CN201910437404.XA Division CN110120072B (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统

Publications (2)

Publication Number Publication Date
CN105849771A true CN105849771A (zh) 2016-08-10
CN105849771B CN105849771B (zh) 2019-06-04

Family

ID=49886910

Family Applications (3)

Application Number Title Priority Date Filing Date
CN202310512328.0A Pending CN116485870A (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统
CN201910437404.XA Active CN110120072B (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统
CN201380081725.1A Active CN105849771B (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN202310512328.0A Pending CN116485870A (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统
CN201910437404.XA Active CN110120072B (zh) 2013-12-19 2013-12-19 用于跟踪移动设备的方法和系统

Country Status (6)

Country Link
US (4) US10121247B2 (zh)
EP (2) EP3084719B1 (zh)
KR (2) KR102059311B1 (zh)
CN (3) CN116485870A (zh)
AU (1) AU2013407879B2 (zh)
WO (1) WO2015090420A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168532A (zh) * 2017-05-05 2017-09-15 武汉秀宝软件有限公司 一种基于增强现实的虚拟同步显示方法及系统
CN107730551A (zh) * 2017-01-25 2018-02-23 问众智能信息科技(北京)有限公司 车载相机姿态自动估计的方法和装置
CN107953828A (zh) * 2016-10-14 2018-04-24 株式会社万都 车辆的行人识别方法及车辆的行人识别系统
CN108833928A (zh) * 2018-07-03 2018-11-16 中国科学技术大学 交通监控视频编码方法
WO2018218506A1 (en) * 2017-05-31 2018-12-06 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for constructing an environment model
CN109887032A (zh) * 2019-02-22 2019-06-14 广州小鹏汽车科技有限公司 一种基于单目视觉slam的车辆定位方法及系统
CN109887003A (zh) * 2019-01-23 2019-06-14 亮风台(上海)信息科技有限公司 一种用于进行三维跟踪初始化的方法与设备
CN110392892A (zh) * 2017-02-20 2019-10-29 大众汽车有限公司 生成分割的车辆图像数据的方法、对应的系统和车辆
CN111261117A (zh) * 2018-12-03 2020-06-09 三星显示有限公司 调节液晶显示设备中包括的背光单元的亮度的方法
CN112997049A (zh) * 2018-09-19 2021-06-18 大众汽车股份公司 提供到导航目的地的至少一个入口的定位数据的方法、实行此类方法的服务器设备及机动车
CN113375667A (zh) * 2021-07-15 2021-09-10 北京百度网讯科技有限公司 导航方法、装置、设备和存储介质
CN113474825A (zh) * 2019-02-25 2021-10-01 高通股份有限公司 用于在移动平台上提供沉浸式扩展现实体验的系统和方法
CN114341961A (zh) * 2019-08-30 2022-04-12 高通股份有限公司 用于增强现实辅助的技术

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
CN107025661B (zh) * 2016-01-29 2020-08-04 成都理想境界科技有限公司 一种实现增强现实的方法、服务器、终端及系统
CN107025662B (zh) * 2016-01-29 2020-06-09 成都理想境界科技有限公司 一种实现增强现实的方法、服务器、终端及系统
CN107204037B (zh) * 2016-03-17 2020-11-24 中国科学院光电研究院 基于主被动三维成像系统的三维影像生成方法
EP3264763A1 (en) * 2016-06-29 2018-01-03 Thomson Licensing Method and apparatus for improved significance flag coding using simple local predictor
EP3479160A4 (en) 2016-06-30 2020-03-25 Magic Leap, Inc. ESTIMATE OF THE POSE IN A 3D SPACE
BR112019000728B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Veículo que incorpora máquina de assentamento de tijolos
CN109715894B (zh) 2016-07-15 2021-09-03 快砖知识产权私人有限公司 用于物料运输的吊杆
WO2018032457A1 (en) * 2016-08-18 2018-02-22 SZ DJI Technology Co., Ltd. Systems and methods for augmented stereoscopic display
WO2018078408A1 (en) * 2016-10-28 2018-05-03 The Nielsen Company (Us), Llc Reducing scale estimate errors in shelf images
US11042984B2 (en) * 2016-11-10 2021-06-22 Movea Systems and methods for providing image depth information
US11317028B2 (en) * 2017-01-06 2022-04-26 Appsure Inc. Capture and display device
WO2018131165A1 (ja) * 2017-01-16 2018-07-19 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2018134686A2 (en) * 2017-01-19 2018-07-26 Mindmaze Holding Sa Systems, methods, device and apparatuses for performing simultaneous localization and mapping
US20200158517A1 (en) * 2017-01-19 2020-05-21 Mindmaze Holding Sa System, methods, device and apparatuses for preforming simultaneous localization and mapping
KR102647351B1 (ko) 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
CN110249291A (zh) * 2017-02-01 2019-09-17 Pcms控股公司 用于在预捕获环境中的增强现实内容递送的系统和方法
US10187868B2 (en) * 2017-04-10 2019-01-22 Verizon Patent And Licensing Inc. Systems and methods for finding a user device based on sensor readings of the user device
CN107426531A (zh) * 2017-05-16 2017-12-01 上海欧忆能源科技有限公司 姿态视角遥控遥视智能头盔、方法、摄像装置及系统
EP3416027B1 (en) * 2017-06-12 2020-04-08 Hexagon Technology Center GmbH Augmented-reality device and system with seamless bridging
WO2019006189A1 (en) 2017-06-29 2019-01-03 Open Space Labs, Inc. AUTOMATED SPACE INDEXING OF IMAGES BASED ON MASS PLAN CHARACTERISTICS
WO2019006511A1 (en) 2017-07-05 2019-01-10 Fastbrick Ip Pty Ltd REAL-TIME POSITION TRACKING AND ORIENTATION DEVICE
DE102017212603A1 (de) * 2017-07-21 2019-01-24 Robert Bosch Gmbh Verfahren zum Bereitstellen und zum Verbessern einer Positionswahrscheinlichkeitsverteilung für GNSS-Empfangsdaten
WO2019019157A1 (en) 2017-07-28 2019-01-31 Qualcomm Incorporated INITIALIZING IMAGE SENSOR IN A ROBOTIC VEHICLE
WO2019033170A1 (en) 2017-08-17 2019-02-21 Fastbrick Ip Pty Ltd LASER TRACKING DEVICE WITH ENHANCED ROLL ANGLE MEASUREMENT
US11958193B2 (en) 2017-08-17 2024-04-16 Fastbrick Ip Pty Ltd Communication system for an interaction system
US11151740B2 (en) 2017-08-31 2021-10-19 Sony Group Corporation Simultaneous localization and mapping (SLAM) devices with scale determination and methods of operating the same
KR102472767B1 (ko) * 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
ES2971624T3 (es) 2017-10-11 2024-06-06 Fastbrick Ip Pty Ltd Máquina para transportar objetos
KR20190048738A (ko) 2017-10-31 2019-05-09 에스케이텔레콤 주식회사 증강현실용 컨텐츠 제공 장치 및 방법
KR101999457B1 (ko) * 2017-12-13 2019-07-11 국민대학교산학협력단 광학 카메라 통신을 이용하는 위치 추정 방법 및 장치
US10311646B1 (en) 2018-02-26 2019-06-04 Capital One Services, Llc Dynamic configuration of an augmented reality overlay
US10872433B2 (en) * 2018-04-18 2020-12-22 Mobileye Vision Technologies Ltd. Vehicle environment modeling with a camera
CN108564069B (zh) * 2018-05-04 2021-09-21 中国石油大学(华东) 一种工业佩戴安全帽视频检测方法
WO2019221800A1 (en) * 2018-05-18 2019-11-21 Purdue Research Foundation System and method for spatially registering multiple augmented reality devices
CN109031304A (zh) * 2018-06-06 2018-12-18 上海国际汽车城(集团)有限公司 基于视觉和毫米波雷达地图特征的隧道内车辆定位方法
CN110617821B (zh) 2018-06-19 2021-11-02 北京嘀嘀无限科技发展有限公司 定位方法、装置及存储介质
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
US11890494B2 (en) 2018-11-09 2024-02-06 Qwake Technologies, Inc. Retrofittable mask mount system for cognitive load reducing platform
US10417497B1 (en) 2018-11-09 2019-09-17 Qwake Technologies Cognitive load reducing platform for first responders
US10896492B2 (en) 2018-11-09 2021-01-19 Qwake Technologies, Llc Cognitive load reducing platform having image edge enhancement
EP3881163A4 (en) 2018-11-12 2022-08-03 Open Space Labs, Inc. AUTOMATED SPATIAL INDEXING OF IMAGES ON VIDEO
KR102199292B1 (ko) 2018-11-23 2021-01-06 에스케이텔레콤 주식회사 동영상 저작 장치 및 이를 이용한 동영상 저작 방법
US10839560B1 (en) * 2019-02-26 2020-11-17 Facebook Technologies, Llc Mirror reconstruction
US10955245B2 (en) * 2019-04-30 2021-03-23 Samsung Electronics Co., Ltd. System and method for low latency, high performance pose fusion
US11488324B2 (en) * 2019-07-22 2022-11-01 Meta Platforms Technologies, Llc Joint environmental reconstruction and camera calibration
US11915376B2 (en) 2019-08-28 2024-02-27 Qwake Technologies, Inc. Wearable assisted perception module for navigation and communication in hazardous environments
US11380078B2 (en) 2019-12-13 2022-07-05 Hover, Inc. 3-D reconstruction using augmented reality frameworks
US11113894B1 (en) * 2020-09-11 2021-09-07 Microsoft Technology Licensing, Llc Systems and methods for GPS-based and sensor-based relocalization
CN112699765A (zh) * 2020-12-25 2021-04-23 北京百度网讯科技有限公司 评估视觉定位算法的方法、装置、电子设备及存储介质
CN112991808B (zh) * 2020-12-29 2022-09-30 杭州海康威视数字技术股份有限公司 一种停车区域的车位显示方法、装置及电子设备
US11922576B2 (en) * 2022-01-04 2024-03-05 Triangulate Labs, Inc. System and method for mapping the skin
WO2023155983A1 (en) * 2022-02-16 2023-08-24 Telefonaktiebolaget Lm Ericsson (Publ) 3d reconstruction
CN117495232B (zh) * 2023-11-27 2024-06-25 深圳市晟晟科技有限公司 一种订单跟踪方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101162524A (zh) * 2006-08-11 2008-04-16 佳能株式会社 图像处理设备及方法
CN102667855A (zh) * 2009-10-19 2012-09-12 Metaio有限公司 用于确定相机姿态以及用于识别真实环境的对象的方法
WO2013029675A1 (en) * 2011-08-31 2013-03-07 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2853121B1 (fr) * 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
JP2005227912A (ja) * 2004-02-10 2005-08-25 Alpine Electronics Inc ナビゲーション情報の供給方法、ナビゲーション装置及びナビゲーション情報の提供システム
JP4917615B2 (ja) 2006-02-27 2012-04-18 プライム センス リミティド スペックルの無相関を使用した距離マッピング(rangemapping)
JP2008123028A (ja) * 2006-11-08 2008-05-29 Nec Corp 携帯端末、車両誘導システム及び誘導方法
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
JP5330508B2 (ja) * 2008-06-25 2013-10-30 トムトム インターナショナル ベスローテン フエンノートシャップ ナビゲーション装置、ナビゲーション装置の制御方法、プログラム及び媒体
JP2012505449A (ja) * 2008-10-08 2012-03-01 トムトム インターナショナル ベスローテン フエンノートシャップ 車両搭載型のナビゲーション装置に関する改善
AU2008365415A1 (en) * 2008-12-19 2010-06-24 Tele Atlas B.V. Dynamically mapping images on objects in a navigation system
WO2010081545A1 (en) * 2009-01-14 2010-07-22 Tomtom International B.V. Navigation apparatus, server apparatus and method of providing an indication of likelihood of occupancy of a parking location
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
JP2011174744A (ja) * 2010-02-23 2011-09-08 Sony Corp ナビゲーション装置、ナビゲーション方法およびプログラム
KR101606727B1 (ko) * 2010-06-25 2016-03-28 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
CN103119627B (zh) * 2010-09-20 2017-03-08 高通股份有限公司 用于云辅助式扩增现实的可适应性框架
JP5782708B2 (ja) * 2010-12-03 2015-09-24 日産自動車株式会社 走行支援装置
US8874162B2 (en) * 2011-12-23 2014-10-28 Microsoft Corporation Mobile device safe driving
CN103198694B (zh) * 2013-03-01 2015-04-29 上海喜泊客信息技术有限公司 利用多种网络进行导航的系统
US10228242B2 (en) * 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101162524A (zh) * 2006-08-11 2008-04-16 佳能株式会社 图像处理设备及方法
CN102667855A (zh) * 2009-10-19 2012-09-12 Metaio有限公司 用于确定相机姿态以及用于识别真实环境的对象的方法
WO2013029675A1 (en) * 2011-08-31 2013-03-07 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107953828B (zh) * 2016-10-14 2021-03-09 株式会社万都 车辆的行人识别方法及车辆的行人识别系统
CN107953828A (zh) * 2016-10-14 2018-04-24 株式会社万都 车辆的行人识别方法及车辆的行人识别系统
CN107730551A (zh) * 2017-01-25 2018-02-23 问众智能信息科技(北京)有限公司 车载相机姿态自动估计的方法和装置
CN107730551B (zh) * 2017-01-25 2019-09-17 大众问问(北京)信息科技有限公司 车载相机姿态自动估计的方法和装置
CN110392892A (zh) * 2017-02-20 2019-10-29 大众汽车有限公司 生成分割的车辆图像数据的方法、对应的系统和车辆
CN110392892B (zh) * 2017-02-20 2023-05-12 大众汽车有限公司 生成分割的车辆图像数据的方法、对应的系统和车辆
CN107168532A (zh) * 2017-05-05 2017-09-15 武汉秀宝软件有限公司 一种基于增强现实的虚拟同步显示方法及系统
CN107168532B (zh) * 2017-05-05 2020-09-11 武汉秀宝软件有限公司 一种基于增强现实的虚拟同步显示方法及系统
WO2018218506A1 (en) * 2017-05-31 2018-12-06 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for constructing an environment model
CN108833928A (zh) * 2018-07-03 2018-11-16 中国科学技术大学 交通监控视频编码方法
CN108833928B (zh) * 2018-07-03 2020-06-26 中国科学技术大学 交通监控视频编码方法
CN112997049A (zh) * 2018-09-19 2021-06-18 大众汽车股份公司 提供到导航目的地的至少一个入口的定位数据的方法、实行此类方法的服务器设备及机动车
CN111261117A (zh) * 2018-12-03 2020-06-09 三星显示有限公司 调节液晶显示设备中包括的背光单元的亮度的方法
CN111261117B (zh) * 2018-12-03 2024-04-02 三星显示有限公司 调节液晶显示设备中包括的背光单元的亮度的方法
CN109887003A (zh) * 2019-01-23 2019-06-14 亮风台(上海)信息科技有限公司 一种用于进行三维跟踪初始化的方法与设备
CN109887032A (zh) * 2019-02-22 2019-06-14 广州小鹏汽车科技有限公司 一种基于单目视觉slam的车辆定位方法及系统
CN109887032B (zh) * 2019-02-22 2021-04-13 广州小鹏汽车科技有限公司 一种基于单目视觉slam的车辆定位方法及系统
CN113474825A (zh) * 2019-02-25 2021-10-01 高通股份有限公司 用于在移动平台上提供沉浸式扩展现实体验的系统和方法
CN113474825B (zh) * 2019-02-25 2022-02-08 高通股份有限公司 用于在移动平台上提供沉浸式扩展现实体验的方法和装置
CN114341961A (zh) * 2019-08-30 2022-04-12 高通股份有限公司 用于增强现实辅助的技术
CN113375667A (zh) * 2021-07-15 2021-09-10 北京百度网讯科技有限公司 导航方法、装置、设备和存储介质

Also Published As

Publication number Publication date
US20200162703A1 (en) 2020-05-21
AU2013407879B2 (en) 2017-08-10
EP3627446A1 (en) 2020-03-25
EP3084719A1 (en) 2016-10-26
KR102059311B1 (ko) 2019-12-24
AU2013407879A1 (en) 2016-06-16
KR20160088909A (ko) 2016-07-26
US20190075274A1 (en) 2019-03-07
CN116485870A (zh) 2023-07-25
US20220279147A1 (en) 2022-09-01
US11968479B2 (en) 2024-04-23
EP3627446B1 (en) 2021-06-16
US20160350906A1 (en) 2016-12-01
EP3084719B1 (en) 2019-11-20
CN110120072B (zh) 2023-05-09
US11336867B2 (en) 2022-05-17
KR101947619B1 (ko) 2019-02-14
US10121247B2 (en) 2018-11-06
KR20190016143A (ko) 2019-02-15
US10582166B2 (en) 2020-03-03
CN105849771B (zh) 2019-06-04
CN110120072A (zh) 2019-08-13
WO2015090420A1 (en) 2015-06-25

Similar Documents

Publication Publication Date Title
US11968479B2 (en) Method of tracking a mobile device and method of generating a geometrical model of a real environment using a camera of a mobile device
JP7210165B2 (ja) 仮想経路を表示する方法、装置及びディスプレイ装置
US11593950B2 (en) System and method for movement detection
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
CN108406731A (zh) 一种基于深度视觉的定位装置、方法及机器人
JP2019525148A (ja) 自律車両ナビゲーションのための疎な地図並びにレーン測定値のクラウドソーシング及び配信
CN105783913A (zh) 一种融合车载多传感器的slam装置及其控制方法
CN205426175U (zh) 一种融合车载多传感器的slam装置
CN110119698A (zh) 用于确定对象状态的方法、装置、设备和存储介质
CN208323361U (zh) 一种基于深度视觉的定位装置及机器人
US20210287022A1 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
CN108364304A (zh) 一种用于单目机载目标检测的系统和方法
CN115359326A (zh) 单目3d目标检测方法及装置
JP2021047024A (ja) 推定装置、推定方法及びプログラム
Haala et al. Pedestrian mobile mapping system for indoor environments based on MEMS IMU and range camera
CN113807282A (zh) 一种数据处理方法、设备以及可读存储介质
CN208314856U (zh) 一种用于单目机载目标检测的系统
JP2017182564A (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
Langner Visual Perception for Autonomous Driving
Amendola et al. Edge-distributed fusion of camera-LiDAR for robust moving object localization
KR20230065731A (ko) 3차원 시설물 위치 정보를 업데이트하는 방법 및 이를 이용한 장치
KR20230065730A (ko) 3차원 시설물 위치 정보를 이용한 모바일 장치의 위치 결정 방법 및 이를 이용한 장치
Kalpana et al. Implementation of RTT-GM for Vehicular Recognition and Localization
RAJAMOHAN Persistent Surveillance System for Gathering Comprehensive Road Information using Aerial and Land Based Sensors

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180427

Address after: American California

Applicant after: Apple Computer, Inc.

Address before: Munich, Germany

Applicant before: METAIO GmbH

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant