CN110889872A - 在增强现实中显示虚拟对象的定位方法和装置 - Google Patents
在增强现实中显示虚拟对象的定位方法和装置 Download PDFInfo
- Publication number
- CN110889872A CN110889872A CN201910241914.XA CN201910241914A CN110889872A CN 110889872 A CN110889872 A CN 110889872A CN 201910241914 A CN201910241914 A CN 201910241914A CN 110889872 A CN110889872 A CN 110889872A
- Authority
- CN
- China
- Prior art keywords
- image
- positioning
- positioning information
- generating
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 230000003190 augmentative effect Effects 0.000 title claims description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 54
- 238000013528 artificial neural network Methods 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 10
- 230000004807 localization Effects 0.000 claims description 4
- 230000015654 memory Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000002181 esophagogastroduodenoscopy Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
公开了一种定位方法和装置,所述定位方法和装置可以获取设备的定位信息,生成包括与输入图像中包括的对象相对应的方向特性的第一图像,生成其中对象基于定位信息而投影到与对象的位置相对应的地图数据的第二图像,并基于第一图像和第二图像之间的视觉对准调整定位信息。
Description
相关申请的交叉引用
本申请要求2018年9月11日在韩国知识产权局递交的韩国专利申请No.10-2018-0108252的优先权,出于所有目的,其全部公开通过引用合并于此。
技术领域
以下描述涉及用于在增强现实(AR)中显示虚拟对象的定位方法和装置。
背景技术
在各种领域中提供各种类型的增强现实(AR)服务,例如,用于车辆和其他运输设备的驾驶辅助、游戏和娱乐。可以使用各种定位方法逼真地提供AR。例如,基于传感器的定位方法可以使用各种传感器(例如,全球定位系统(GPS)传感器和惯性测量单元(IMU)传感器),以验证对象的位置和方向。当需要高准确性时,基于传感器的定位方法需要具有高准确性的非常高价的传感器,因此难以实现商业化和小型化。此外,使用相机信息获取高精度坐标信息的基于视觉的定位方法可能难以在包括许多具有连续运动的动态对象的环境中使用。
发明内容
提供本发明内容是为了以简化的形式介绍对以下在具体实施方式中进一步描述的构思的选择。本发明内容不意在确认要求保护的主题的关键特征或必要特征,也不意在用于帮助确定要求保护的主题的范围。
在一个总的方面,提供了一种定位方法,包括:获取设备的定位信息;生成第一图像,第一图像包括与输入图像中包括的对象相对应的方向特性;生成第二图像,在第二图像中,对象基于定位信息而投影到与对象的位置相对应的地图数据上;以及基于第一图像和第二图像之间的视觉对准来更新定位信息。
定位信息可以包括装置的位置和装置的姿势。
生成第二图像可以包括:在地图数据上所述位置处放置虚拟相机,并基于装置的姿势调整虚拟相机的姿势,以及生成从虚拟相机观看对象的视角的图像。
方向特性可以对应于指示与对象的接近度的概率分布。
输入图像可以基于第一传感器的输出,定位信息可以基于第二传感器的输出。
该定位方法可以包括:确定地图数据上用于增强现实(AR)服务的虚拟对象,以及基于更新的定位信息显示虚拟对象和输入图像。
虚拟对象可以表示驾驶路线信息。
生成第一图像可以包括:使用经训练的神经网络生成表示方向特性的概率图。
概率图中的每个像素可以被配置为存储从每个像素到最接近的种子像素的距离。
种子像素可以包括输入图像中包括的像素之中与对象相对应的像素。
生成第二图像可以包括:使用变换器生成第二图像,其中变换器被配置为将地图数据的坐标系变换为第二图像的坐标系。
定位信息可以包括6自由度(6DoF)。
更新定位信息可以包括:通过将第一图像和第二图像相匹配来计算视觉对准度,以及基于方向特性修改定位信息以增加视觉对准度。
计算可以包括:将第一图像中的像素之中与第二图像中的对象相对应的像素的值相加。
基于方向特性修改定位信息可以包括:基于方向特性修改定位信息以对第二图像中的对象进行变换。
基于方向特性修改定位信息可以包括:基于方向特性移动或旋转第二图像中的对象。
第一图像可以被配置为基于对象类型将对象分类,并针对每种对象类型存储方向特性,第二图像可以被配置为基于对象类型将对象分类,并针对每种对象类型存储投影对象。
修改可以包括:通过将第一图像和第二图像相匹配来针对每种对象类型计算视觉对准度,以及基于方向特性修改定位信息以增加视觉对准度。
输入图像可以包括车辆的驾驶图像。
对象可以包括线、路面标记、交通灯、标志、路缘石和结构中的任何一个或任何组合。
在另一个总的方面,提供了一种学习方法,包括:接收学习图像;基于用于学习图像的地图数据生成参考图像,参考图像包括与学习图像中的对象相对应的方向特性;使用神经网络生成推断图像,推断图像推断与学习图像中的对象相对应的方向特性;以及基于参考图像和推断图像之间的差异训练神经网络。
训练可以包括:训练神经网络以使参考图像和推断图像之间的差异最小化。
方向特性可以对应于指示与对象的接近度的概率分布。
参考图像和推断图像中的每个像素可以被配置为存储从每个像素到最接近的种子像素的距离。
参考图像和推断图像中的每一个可以被配置为:基于对象的类型将对象分类,并针对每种对象类型存储方向特性。
训练可以包括:基于参考图像和推断图像之间的类型差异训练神经网络。
学习图像可以包括车辆的驾驶图像。
对象可以包括线、路面标记、交通灯、标志、路缘石和结构中的任何一个或任何组合。
在另一个总的方面,提供了一种定位装置,包括:传感器,被配置为获取设备的定位信息和输入图像;以及处理器,被配置为:生成第一图像,第一图像包括与输入图像中包括的对象相对应的方向特性;生成第二图像,在第二图像中,对象基于定位信息而影到与对象的位置相对应的地图数据上;以及基于第一图像和第二图像之间的视觉对准来调整定位信息。
在另一个总的方面,提供了一种定位方法,包括:获取与设备的位置相对应的输入图像;接收与对象的位置相对应的地图数据;生成第二图像,在第二图像中,对象基于多个相应的候选定位信息而投影到地图数据上;通过将输入图像和每个第二图像相匹配来针对每个第二图像计算视觉对准度;从第二图像中选择具有最高视觉对准度的第二图像;以及基于与所选择的第二图像相对应的候选定位信息更新定位信息。
该定位方法可以包括:生成第一图像,第一图像包括指示与对象相对应的方向特性的概率图,并且其中,计算视觉对准度可以包括:将第一图像和每个第二图像相匹配。
在另一个总的方面,提供了一种定位装置,包括:第一传感器,被配置为捕获图像;第二传感器,被配置为获取设备的定位信息;平视显示器(HUD);处理器,被配置为:生成第一图像,第一图像包括与所述图像中包括的对象相对应的方向特性;生成第二图像,在第二图像中,对象基于定位信息而投影到与对象的位置相对应的地图数据上;基于第一图像和第二图像之间的视觉对准更新定位信息;以及在用于增强现实(AR)服务的HUD中,基于调整的定位信息,将对象和输入图像显示到地图数据上。
其他特征和方面将从下面的具体实施方式、附图和权利要求中显而易见。
附图说明
图1A、图1B和图1C示出了与定位误差相对应的视觉对准结果的示例。
图2是示出了定位方法的示例的图。
图3示出了定位方法的示例。
图4示出了定位过程的示例。
图5示出了生成第一图像的过程的示例。
图6示出了修改定位信息的方法的示例。
图7A和图7B示出了修改定位信息的方法的示例。
图8是示出了学习方法的示例的图。
图9示出了学习过程的示例。
图10示出了图像的示例以用于学习。
图11示出了学习方法的示例。
图12示出了图11的定位更新过程的示例。
图13是示出了定位方法的示例的图。
图14是示出了定位装置的示例的图。
贯穿附图和具体实施方式,除非另外描述或提供,否则相同的附图标记将被理解为指代相同的元件、特征和结构。附图可以不按比例绘制,并且为了清楚、例释和方便,可以扩大附图中元件的相对尺寸、比例和描绘。
具体实施方式
提供下面的具体实施方式是为了帮助读者获得对本文中所描述的方法、装置和/或系统的全面理解。然而,在理解了本申请的公开之后,本文中所描述的方法、装置和/或系统的各种改变、修改和等同物将是显而易见的。例如,本文中所描述的操作次序仅仅是示例,并且不限于在本文中所阐述的那些操作次序,而是可以在理解了本申请的公开之后显而易见地改变,除了必须按一定顺序发生的操作之外。此外,为了更加清楚和简洁,可以省略对本领域已知的特征的描述。
本文中所描述的特征可以以不同形式来体现,并且不应被解释为限于本文中所描述的示例。相反,提供本文中所描述的示例仅仅是为了示出实现本文中所描述的方法、装置和/或系统的许多可行方式中的一些,在理解了本申请的公开之后这些方式将是显而易见的。
尽管本文中可以使用诸如“第一”、“第二”、“第三”、“A”、“B”、(a)和(b)之类的术语来描述各种构件、组件、区域、层或部分,但是这些构件、组件、区域、层或部分不受这些术语的限制。相反,这些术语仅用于将一个构件、组件、区域、层或部分与另一个构件、组件、区域、层或部分进行区分。因此,在不脱离示例的教导的情况下,本文中所描述的示例中提及的第一构件、组件、区域、层或部分也可以被称为第二构件、组件、区域、层或部分。
如果说明书指出一个组件“连接”、“耦接”或“接合”到第二组件,则第一组件可以直接“连接”、“耦接”或“接合”到第二组件,或者可以在第一组件和第二组件之间“连接”、“耦接”或“接合”第三组件。然而,如果说明书指出第一组件“直接连接”或“直接接合”到第二组件,则在第一组件和第二组件之间不可“连接”或“接合”第三组件。也应以这种方式解释类似表述,例如“在...之间”和“紧接在...之间”以及“与...相邻”和“与...紧邻”。
本文中所使用的术语仅是出于描述具体示例的目的,并不旨在限制本公开或权利要求。除非上下文另外明确地指示,否则单数形式“一”、“一个”和“该”也包括复数形式。术语“包括”、“包括有”、“包含”和“包含有”指明存在所陈述的特征、数目、操作、元件、组件或其组合,但不排除存在或添加一个或多个其他特征、数目、操作、元件、组件或其组合。
在本文中,关于示例或实施例的术语“可以”的使用(例如,关于示例或实施例可以包括或实现什么)意味着存在至少一个包括或实现了这样特征的示例或实施例,而所有示例和实施例不限于此。
在下文中,参考附图描述示例实施例。贯穿附图,本文中使用的相似的附图标记可以指代相似的元件。
图1A、图1B和图1C示出了与定位误差相对应的视觉对准结果的示例。
增强现实(AR)指代向图像添加或增加基于现实的信息并提供添加或增加的信息。例如,AR可以提供如下图像:其中将与虚拟图像相对应的虚拟对象添加到现实世界的图像或背景图像。由于现实世界和虚拟世界在AR中协调,所以用户可以体验到能够在用户和虚拟世界之间进行实时交互的沉浸感,而无需认识到虚拟环境与现实环境不同。为了使虚拟对象与现实图像相匹配,应该对位置和姿势(即,AR将被提供到的用户设备或用户的定位信息)进行验证。
定位信息用于在图像中期望的位置处定位虚拟对象。在AR中,当将虚拟对象投影到二维(2D)图像上时视觉对准度比在实际三维(3D)空间上发生的错误或在特征匹配中发生的错误更重要。例如,视觉对准度对应于虚拟对象和现实图像之间的重叠比率或匹配比率。如图1A和图1B所示,视觉对准度基于定位误差而变化。在下文中,作为示例,描述在路面上显示与虚拟对象相对应的驾驶引导车道的示例。
在下面的描述中,本文中所描述的示例可以用于生成支持驾驶员或控制自主车辆的信息。本文中所描述的示例还可以用于在设备(例如,在车辆中为了完全自主驾驶或驾驶辅助而安装的智能系统)中解释视觉信息以及用于辅助安全和舒适驾驶。本文中所描述的示例可以应用于车辆和车辆管理系统,例如自主车辆、自动或自主驾驶系统、智能车辆、高级驾驶员辅助系统(ADAS)、通过安全地保持车辆正在其上行进的车道来辅助车辆的导航系统、智能电话或移动设备。与显示对应于虚拟对象的驾驶引导车道有关的示例仅作为示例提供,并且诸如训练、游戏、健康保健中的应用、公共安全、旅游和市场营销之类的其他示例被认为完全在本公开的范围内。
参考图1A,AR图像120基于当定位误差为小时的视觉对准结果。参考图1B,AR图像140基于当定位误差为大时的视觉对准结果。
例如,基于对象110的定位信息在道路图像上显示车辆的参考路径。在示例中,对象110对应于执行定位的用户终端和/或车辆。当对象110的定位误差小时,驾驶引导车道115(即,要显示的虚拟对象)可以在视觉上与实际道路图像良好地对准,如在AR图像120中所示。当对象130的定位误差大时,作为要显示的虚拟对象的驾驶引导车道135可能未在视觉上与实际道路图像对准,如在AR图像140中所示。
在示例中,可以通过优化定位信息来提供准确的AR服务,以在将虚拟对象投影到二维(2D)图像上时增加视觉对准度。
参考图1C,定位信息包括装置的位置和姿势。位置对应于3D坐标(x,y,z)。这里,x坐标表示横向位置tx,y坐标表示竖直位置ty,z坐标表示纵向位置tz。此外,姿势对应于俯仰rx、偏航ry和横滚rz。例如,使用例如地理定位系统(GPS)传感器和激光雷达获取位置,使用例如惯性测量单元(IMU)传感器和陀螺仪传感器获取姿势。可以将定位信息理解为包括6自由度(6DoF),6DoF包括位置和姿势。
在示例中,本文中所描述的车辆指代任何运输、运送或传送模式,例如汽车、卡车、拖拉机、滑板车、摩托车、自行车、水陆两用车辆、雪地摩托车、船、公共运输车辆、公共汽车、单轨电车、火车、有轨电车、自主或自动驾驶车辆、智能车辆、自驾车辆、无人驾驶飞行器、电动车辆(EV)、混合动力车辆、智能移动设备、ADAS或无人机。在示例中,智能移动设备包括诸如电动方向盘、电动浮板和电动自行车之类的移动设备。在示例中,车辆包括机动和非机动车辆,例如具有动力引擎的车辆(例如,中耕机或摩托车)、自行车或手推车。
术语“道路”是在两个地方之间已被改善的允许通过步行或某种形式的运输工具(例如,车辆)行进的大道、路线或连接。道路可以包括各种类型的道路,例如高速公路、国道、田间道、省道或高速国道。道路可以包括单个车道或多个车道。车道对应于通过在道路表面上标记的道路线彼此区分的道路空间。在示例中,“车道”是多个车道中车辆正在其上行进的平面的空间,即,被车辆占用和使用的空间。通过车道的右侧标记和左侧标记区分一个车道与其他车道。
此外,可以将术语“线”理解为各种类型的线,例如实线、虚线、曲线和Z字形线,其在路面上以诸如白色、蓝色或黄色之类的颜色标记。线可以对应于区分单个车道的一侧上的线,也可以是一对线(即,与区分单个车道的车道边界线相对应的左车道和右车道)、道路的中心线和停车线。此外,线可以指示禁止泊车和停车的区域、人行横道、停车拖走区和限速指示。
例如,下面的示例可以应用于智能车辆中的AR导航设备。在示例中,AR导航设备被用于标记线,生成视觉信息以帮助自主驾驶车辆的转向,或者提供用于车辆驾驶的各种控制信息。AR导航设备可以向显示器提供视觉信息。在示例中,显示器是使用增强现实的平视显示器(HUD)、车辆信息娱乐系统、车辆中的仪表板或车辆中的屏幕。安装显示器用于车辆的驾驶辅助或完全自主驾驶,以及辅助安全和愉悦驾驶。在示例中,显示器也可以被实现为包括单眼眼镜或双眼眼镜在内的眼镜显示器(EGD)。
图2是示出了定位方法的示例的图。图2中的操作可以以所示顺序和方式来执行,但是在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序或省略一些操作。图2中示出的许多操作可以并行或同时执行。图2中的一个或多个块和块的组合可以由用于执行特定功能的基于专用硬件的计算机来实现,或者由专用硬件和计算机指令的组合来实现。除以下对图2的描述以外,对图1的描述也适用于图2,并通过引用合并于此。因此,此处可以不再重复上述描述。
参考图2,在操作210中,定位装置获取对应装置的定位信息。这里,装置指代执行定位方法的装置,例如车辆、导航设备和诸如智能电话之类的用户设备。定位信息可以具有包括装置的位置和姿势在内的6DoF。基于传感器(例如,IMU传感器、GPS传感器、激光雷达传感器和雷达)的输出获取定位信息。例如,定位信息可以是定位装置的初始定位信息。
在操作220中,定位装置生成第一图像,第一图像包括与输入图像中包括的对象相对应的方向特性。输入图像可以对应于背景图像或与用于AR服务的虚拟对象一起显示的另一图像。例如,输入图像包括车辆的驾驶图像。可以从例如安装到车辆的拍摄设备捕获驾驶图像。在示例中,驾驶图像包括多个帧。定位装置基于拍摄设备的输出获取输入图像。拍摄设备固定在诸如挡风玻璃、仪表板、前挡泥板和后视镜之类的位置处,以捕获车辆前方的图像。例如,拍摄设备可以包括视觉传感器、图像传感器或执行类似功能的设备。拍摄设备可以捕获单个图像,或者如果需要的话,可以以每帧捕获图像。在另一示例中,除了从定位装置捕获驾驶图像之外,还可以从另一装置捕获驾驶图像。驾驶图像可以是图4的输入图像410。在一个示例中,对象包括线、路面标记、交通灯、标志、路缘石、行人、其他车辆和结构。
在操作220中,定位装置使用预训练的神经网络生成概率图,例如指示方向特性的距离场图。在示例中,“与对象相对应的方向特性”可以对应于指示与对象的接近度的概率分布。这里,概率图中包括的像素中的每一个存储从对应像素到最接近的种子像素的距离。种子像素可以是图像中包括的像素之中与对象相对应的像素。例如,第一图像可以是图5的距离场图550。将参考图5进一步描述使用定位装置生成概率图的方法。
在操作230中,定位装置基于包括对象的位置的地图数据生成第二图像,在第二图像中对象根据定位信息而投影。在示例中,地图数据是高密度(HD)地图数据。HD地图指代用于自主驾驶的具有高密度(例如,基于厘米的密度)的三维(3D)地图。例如道路的中心线和边界线的基于线的信息以及例如交通灯、标志、路缘石、路面标记和各种结构的信息可以以3D数字格式包括在HD地图中。例如,可以使用移动地图绘制系统(MMS)建立HD地图。MMS指代包括各种传感器的3D空间信息勘测系统,并且可以包括具有传感器的移动对象,例如用于测量位置和地理特征的相机、激光雷达和GPS。MMS的传感器灵活地彼此交互并获取各种精确的位置信息。
在操作230中,基于地图数据生成其中对象根据定位信息而投影的第二图像意味着,例如,定位装置在地图数据上定位信息中所包括的位置处放置虚拟相机,基于定位信息中所包括的姿势调整虚拟相机的姿势,并生成从虚拟相机观看对象的视角的图像。
在操作230中,定位装置使用例如变换器生成第二图像,变换器将地图数据的坐标系变换为第二图像的坐标系。这里,例如,变换器可以是表示当将一个平面投影到另一平面上时对应点之间的变换关系的单应函数或执行变换的人工神经网络。定位装置基于定位信息从地图数据中提取局部数据,并使用变换器根据提取的局部数据生成第二图像。例如,第二图像可以是图4的第二图像430。
在操作240中,定位装置基于第一图像与第二图像之间的视觉对准来修改或调整定位信息。定位装置通过将第一图像和第二图像相匹配来计算视觉对准度。例如,定位装置将第一图像中包括的多个像素中与第二图像中包括的对象相对应的像素的值相加,并将相加的结果确定为视觉对准度。例如,可以以梯度下降的形式表示视觉对准度。在示例中,定位装置基于与对象相对应的方向特性修改定位信息以增加视觉对准度。定位装置基于方向特性修改定位信息以对第二图像中包括的对象进行变换(例如,移动或旋转)。将参考图6进一步描述定位装置修改定位信息的方法。
定位装置确定地图数据上用于AR服务的虚拟对象。例如,虚拟对象可以使用指示行进方向的箭头指示符或道路标记表示驾驶路线信息。定位装置可以基于在操作240中修改的定位信息,在例如平视显示器(HUD)、导航系统或用户设备的显示器上显示虚拟对象和输入图像。
图3示出了定位方法的示例,图4示出了描述定位过程的示例。图3至图4中的操作可以以所示顺序和方式来执行,然而在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序或省略一些操作。图3至图4中所示出的许多操作可以并行或同时执行。图3至图4的一个或多个块和块的组合可以由执行特定功能的基于专用硬件的计算机实现或由专用硬件和计算机指令的组合实现。除了以下对图3至图4的描述之外,对图1至图2的描述也适用于图3至图4,并且通过引用合并于此。因此,此处可以不再重复以上描述。
参考图3和图4,在操作310中,定位装置获取输入图像410。例如,定位装置接收通过使用图像传感器捕获对象而生成的输入图像410。这里,输入图像410可以是与装置的当前位置相对应的图像。
在操作320中,定位装置接收或获取包括对象的位置的地图数据。
在操作330中,定位装置从在操作310中获取的输入图像410估计对象。定位装置可以基于输入图像410生成包括与对象相对应的方向特性的第一图像420。在示例中,定位装置使用预训练的神经网络生成第一图像420。定位装置可以使用预训练的神经网络稳定地估计对象,而不管输入图像410中的各种障碍物(例如,车辆、行人和街道树木)。例如,当应用输入图像410时,预训练的神经网络通过激活所应用的输入图像410中与线相对应的部分来生成第一图像420。例如,第一图像420可以包括2D距离场图。
在操作340中,定位装置执行初始定位。在操作350中,定位装置通过在操作320中获取的地图数据上应用与初始定位相对应的定位信息来生成其中对象基于初始定位而投影的第二图像430。
定位装置对第一图像420和第二图像430执行视觉对准。定位装置将第一图像420和第二图像430在视觉上对准,如在图像440中所不。
在操作360中,定位装置对视觉对准进行优化。定位装置计算定位修改值,使得第一图像420和第二图像430可以通过视觉对准最大限度地重叠。定位装置可以通过基于在操作340中执行的初始定位改变定位信息以使第一图像420和第二图像430之间的重叠最大化来对视觉对准进行优化。在一个示例中,可以使用其中信息散布在整个图像上的第一图像420(即,距离场图)容易地执行基于梯度的优化。
在操作370中,定位装置将定位修改值应用于定位信息并更新定位信息,以对第一图像420和第二图像430之间的视觉对准进行优化,如在图像450中所示。
图5示出了描述生成第一图像的过程的示例。将参考图5描述将输入图像510应用于神经网络530并生成与第一图像相对应的距离场图550的过程。
神经网络530指代经预训练的以基于输入图像510生成包括与输入图像510中包括的对象相对应的方向特性的第一图像的神经网络。神经网络530可以是深度神经网络(DNN)或n层神经网络。DNN或n层神经网络可以对应于卷积神经网络(CNN)、递归神经网络(RNN)、深度信念网络(deep beliefnetwork)、全连接网络、双向神经网络、受限玻尔兹曼(Boltzman)机和双向长短期记忆网络(BLSTM),或者可以包括分别具有全连接、卷积连接、递归连接和/或双向连接的不同的或重叠的神经网络部分。例如,神经网络530可以实现为CNN,但不限于此。
神经网络530可以实现为具有多个层的架构,所述多个层包括输入图像、特征图和输出。在神经网络530中,利用被称为内核的滤波器对输入图像执行卷积运算,结果是,输出特征图。利用内核对作为输入特征图的输出特征图再次执行卷积运算,并输出新的特征图。当这样重复执行卷积运算时,可以通过神经网络530最终输出关于输入图像的特征的识别结果。在示例中,除了卷积层之外,神经网络530还可以包括池化层(pooling layer)或全连接层。
神经网络530基于距离场图550的形式估计输入图像510中包括的对象。例如,当第一图像如在距离场图550中那样包括与接近的对象相关联的方向特性信息时,可以使用梯度下降方案容易地确定优化的方向特性。当指示与对象的接近度的概率分布如在距离场图550中那样在整个图像上分布时,可以增加用于学习的数据的量。与通过稀疏数据的学习相比,神经网络530的性能可以增强。
图6示出了描述修改定位信息的方法的示例。图6示出了输入图像605、第一图像610和第二图像620。基于输入图像605生成第一图像610。基于地图数据,通过基于与初始定位相对应的定位信息(x,y,z,rx,ry,rz)l投影对象来生成第二图像620。
定位装置将第一图像610和第二图像620相匹配得到图像630,并以例如得分l的形式计算它们之间的视觉对准度。定位装置将第一图像610中包括的多个像素之中与第二图像620中包括的对象相对应的像素的值相加,并以得分的形式计算相加结果。
例如,第一图像610中包括的多个像素中的每一个可以基于距与相应像素相邻的对象的距离而具有0和1之间的值。随着距相邻对象的距离减小,每个像素可以具有接近1的值,随着距相邻对象的距离增加,每个像素可以具有接近0的值。定位装置从第一图像610中包括的多个像素之中提取与第二图像620匹配的像素,将所提取的像素的值相加,并计算得分。
定位装置基于第一图像610的方向特性修改定位信息以增加视觉对准度,即,得分l。定位装置计算定位修改值,使得第二图像620中包括的对象的定位符合第一图像610的方向特性。定位装置通过将定位修改值应用于与初始定位相对应的定位信息而将定位信息更新为l→l′640。例如,定位装置基于第一图像610中包括的方向特性确定要对第二图像620的对象进行移动的方向以增加得分。定位信息一经更新,就对第二图像620的对象进行移动。因此,定位装置基于第一图像610中包括的方向特性更新定位信息。
定位装置基于更新的定位信息l′生成更新的第二图像650。定位装置通过将更新的第二图像650和第一图像610相匹配来计算得分l′。
定位装置通过前述过程计算定位修改值以使得分最大化,并输出优化的定位信息l*。
图7A和图7B示出了描述修改定位信息的方法的示例。
图7A示出了未针对每种类型将输入图像中包括的对象分类的示例。例如,当线710和线730对应于第一图像中包括的对象,并且线720包括在第二图像中时,定位装置修改定位信息以增加通过将第一图像和第二图像相匹配而计算的第一图像和第二图像之间的视觉对准度。在一个示例中,当如图7A所示不区分每种对象类型时,定位装置可能无法准确地验证是否将线720和线710进行匹配或是否将线720和线730进行匹配,这可能使得难以准确地修改定位信息。
图7B示出了根据对象的类型将输入图像中的对象分类的示例。第一图像可以基于对象的类型将对象分类,并且可以针对每种对象类型存储方向特性。此外,第二图像可以基于对象的类型将对象分类,并且可以针对每种对象类型存储投影对象。例如,线740和线760可以对应于第一图像中包括的对象。线740可以对应于第一类型(类型1),线760可以对应于第二类型(类型2)。此外,线750可以包括在第二图像中并且对应于第一类型(类型1)。
参考图7B,当针对每种类型将所述对象中的每一个分类时,定位装置将第一图像和第二图像相匹配,并针对每种对象类型计算视觉对准度。定位装置基于方向特性修改定位信息以增加每种类型的视觉对准度。
例如,定位装置可以计算与第一类型(类型1)相对应的对象(线740和750)的视觉对准度,并且可以基于方向特性修改定位信息以增加与第一类型相对应的视觉对准度。定位装置可以修改定位信息以使所述对象(线740和750)相匹配。
图8是示出了学习方法的示例的图,图9示出了学习过程的示例。图8中的操作可以以所示顺序和方式来执行,但是在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序或省略一些操作。图8中示出的许多操作可以并行或同时执行。图8中的一个或多个块和块的组合可以由执行特定功能的基于专用硬件的计算机来实现,或者由专用硬件和计算机指令的组合来实现。将参考图8、图9和图10描述通过学习装置对神经网络的训练,以根据输入图像生成第一图像,从而对用于AR的定位信息进行优化。除了以下对图8的描述之外,对图1至图7B的描述也适用于图8,并通过引用合并于此。因此,此处可以不再重复以上描述。
参考图8和图9,在操作810中,学习装置接收学习图像910。例如,学习图像910可以包括车辆的驾驶图像。例如,学习图像910可以是图10的学习图像1010。
在操作820中,学习装置基于用于学习图像910的地图数据940生成参考图像950,参考图像950包括与学习图像910中包括的对象相对应的方向特性。在示例中,方向特性对应于指示与对象的接近度的概率分布。参考图像950可以对应于地面实况(GT)图像。例如,参考图像950可以是图10的参考图像1030或参考图像1040。
在操作830中,学习装置使用神经网络920生成推断图像930,推断图像930推断与学习图像910中包括的对象相对应的方向特性。例如,神经网络920可以是图5的神经网络530。将参考图10进一步描述学习装置生成推断图像930的方法。
在操作840中,学习装置基于参考图像950和推断图像930之间的差异(例如,损失960)训练神经网络920。学习装置可以训练神经网络920,以使参考图像950和推断图像930之间的差异最小化。例如,学习装置可以通过监督学习来训练神经网络920。学习装置可以基于通过反向传播学习而反向传播到神经网络920的损失960,通过梯度下降方案更新神经网络920,并输出神经网络920中包括的节点的值。反向传播学习指代如下方法:通过对参考图像950执行正向计算来估计损失960,并且在将估计的损失960从神经网络920的输出层开始朝向隐藏层和输入层传播的同时更新神经网络920,以减少损失960。
图10示出了用于学习的图像的示例。图10示出了学习图像1010、地图数据图像1020以及参考图像1030和1040。
参考图10,学习装置训练神经网络,以根据学习图像1010估计参考图像1030和1040。在示例中,地图数据图像1020使用离散的二进制值表示学习图像1010中的对象。因此,当使用地图数据图像1020时,学习信息可能太稀疏而不能平滑地执行学习。在示例中,可以使用距离场图(例如,参考图像1030和1040)执行学习。稀疏的学习信息可以通过距离场图而遍及整个图像。当如在距离场图中那样在整个目标图像上存在学习信息时,可以基于足够的学习信息训练神经网络。
在示例中,学习装置通过调整距离场中散布的信息的重要性,根据地图数据图像1020生成参考图像1030或参考图像1040。例如,学习装置可以调整距离场中散布的信息的重要性,如e-0.02d一样。这里,d表示与对象相对应的种子像素和对应像素之间的距离。
图11示出了学习方法的示例,图12示出了图11的定位更新过程的示例。图11中的操作可以以所示顺序和方式来执行,但是在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序或省略一些操作。图11中示出的许多操作可以并行或同时执行。图11中的一个或多个块和块的组合可以由执行特定功能的基于专用硬件的计算机来实现,或者由专用硬件和计算机指令的组合来实现。除了以下对图11的描述之外,对图1至图10的描述也适用于图11,并通过引用合并于此。因此,此处可以不再重复以上描述。
参考图11和图12,在操作1110中,定位装置获取输入图像。在示例中,输入图像指代与对应装置的当前位置相对应的图像。
在操作1120中,定位装置接收或获取包括对象的位置的地图数据。在操作1140中,定位装置将多条候选定位信息应用于在操作1120中获取的地图数据。在操作1150中,定位装置生成第二候选图像,在每个第二候选图像中对象基于候选定位信息而投影。例如,定位装置可以生成均应用了候选定位信息的第二候选图像,例如图12的第一候选图像(候选1)1210和第二候选图像(候选2)1220。
在操作1130中,定位装置对输入图像与第二候选图像中的每一个之间的视觉对准进行评分。例如,输入图像和第一候选图像1210之间的视觉对准度被评分为0.43,输入图像与第二候选图像1220之间的视觉对准度被评分为0.98。
在操作1160中,定位装置在操作1130中输出的得分之中搜索具有最高值的最佳得分。参考图12,定位装置从得分0.43和0.98中检索出0.98作为最佳得分。在操作1170中,定位装置通过选择与在操作1160中检索出的最佳得分相对应的候选定位来更新定位信息。
图13是示出了定位方法的示例的图。图13中的操作可以以所示顺序和方式来执行,但是在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序或省略一些操作。图13中示出的许多操作可以并行或同时执行。图13中的一个或多个块和块的组合可以由执行特定功能的基于专用硬件的计算机来实现,或者由专用硬件和计算机指令的组合来实现。除了以下对图13的描述之外,对图1至图12的描述也适用于图13,并通过引用合并于此。因此,此处可以不再重复以上描述。
参考图13,在操作1360中对视觉对准度进行评分之前,定位装置通过在操作1330中对对象进行估计,根据输入图像生成第一图像(例如,距离场图)。定位装置计算第一图像和第二候选图像之间的得分。
图14是示出了定位装置的示例的图。参考图14,定位装置1400包括传感器1410和处理器1430。定位装置1400还包括存储器1450、通信接口1470和显示设备1490。传感器1410、处理器1430、存储器1450、通信接口1470和显示设备1490通过通信总线1405彼此连接。
例如,传感器1410可以包括图像传感器、视觉传感器、加速度计传感器、陀螺仪传感器、GPS传感器、IMU传感器、雷达和激光雷达。传感器1410可以获取包括车辆的驾驶图像的输入图像。除了定位信息(例如,车辆的GPS坐标、位置和姿势)之外,传感器1410可以感测感测信息,例如速度、加速度、驾驶方向、车辆的手柄转向角和车辆的速度。
在示例中,处理器1430生成第一图像,第一图像包括与输入图像中包括的对象相对应的方向特性。在示例中,处理器1430基于包括对象的位置的地图数据生成第二图像,在第二图像中对象基于定位信息而投影。在示例中,处理器1430基于第一图像和第二图像之间的视觉对准来修改定位信息。
在示例中,定位装置1400通过通信接口1470从各种传感器获取包括输入图像的各种感测信息。在一个示例中,通信接口1470从位于定位装置1400外部的其他传感器接收包括驾驶图像的感测信息。
处理器1430通过经由通信接口1470和/或显示设备1490输出修改的定位信息,或者通过基于修改的定位信息在地图数据上显示虚拟对象和输入图像,来提供AR服务。此外,处理器1430可以执行参考图1至图13描述的一种或多种方法或与其相对应的算法。
处理器1430指代数据处理设备,该数据处理设备被配置为在物理结构上具有电路的硬件以执行期望的操作。例如,期望的操作可以包括程序中包括的代码或指令。例如,被配置为硬件的数据处理设备可以包括微处理器、中央处理单元(CPU)、处理器核、多核处理器、多处理器、专用集成电路(ASIC)和现场可编程门阵列(FPGA)。以下提供关于处理器1430的更多细节。
处理器1430执行程序并控制定位装置1400。可以将由处理器1430执行的程序代码存储在存储器1450中。
存储器1450存储定位装置1400的定位信息、第一图像、第二图像和/或修改的定位信息。存储器1450存储在处理器1430的处理过程期间生成的各种信息。在示例中,存储器1450存储地图数据。另外,存储器1450存储各种数据和程序。例如,存储器1450可以包括易失性存储器或非易失性存储器。存储器1450可以包括诸如硬盘之类的大容量存储介质以存储各种数据。以下提供关于存储器1450的更多细节。
显示设备1490输出由处理器1430修改的定位信息,或基于修改的定位信息在地图数据上与输入图像一起显示虚拟对象。在示例中,显示设备1490是包括提供用于渲染用户界面和/或接收用户输入的能力的一个或多个硬件组件在内的物理结构。在示例中,定位信息或者基于修改的定位信息在地图数据上与输入图像一起的虚拟对象使用平视显示器(HUD)在车辆的挡风玻璃或分离的屏幕上得以显示或者在增强现实平视显示器(AR HUD)上得以显示。在示例中,定位装置1400将定位信息发送给车辆的电子控制单元(ECU)或车辆控制单元(VCU)。ECU或VCU在车辆的显示设备1490上显示定位信息。
然而,对像的显示不限于上述示例,并且任何其他仪表组、车辆信息娱乐系统、车辆中的屏幕或车辆中的显示面板可以执行显示功能。在不脱离所描述的说明性示例的精神和范围的情况下,可以使用可操作地连接到定位装置1400的其他显示器,例如智能电话和眼镜显示器(EGD)。
在一个示例中,尽管拍摄设备与定位装置之间的视角不匹配(例如,HUD和AR眼镜),但是通过使用基于拍摄设备执行定位方法的结果更新定位装置的3D定位信息,定位装置可以独立于视角执行定位方法。此外,当拍摄设备和定位装置之间的视角匹配时(例如,移动终端和智能电话),定位装置可以更新3D定位信息,并且附加地,可以直接使用图像中的2D位置以供修改。
通过硬件组件来实现本文中所描述的定位装置、处理器1430以及其他装置、单元、模块、设备和其他组件。在适当的情况下可以用于执行本申请中所描述的操作的硬件组件的示例包括控制器、传感器、发生器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、累加器以及被配置为执行本申请中所描述的操作的任何其他电子组件。在其他示例中,执行本申请中所描述的操作的一个或多个硬件组件由计算硬件实现,例如,由一个或多个处理器或计算机实现。处理器或计算机可以由一个或多个处理元件实现,例如逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或被配置为以定义的方式响应并执行指令以实现期望结果的任何其他设备或设备的组合。在一个示例中,处理器或计算机包括或连接到存储由处理器或计算机执行的指令或软件的一个或多个存储器。由处理器或计算机实现的硬件组件可以执行指令或软件,例如操作系统(OS)和在OS上运行的一个或多个软件应用,以执行本申请中所描述的操作。响应于指令或软件的执行,硬件组件还可以访问、操纵、处理、创建和存储数据。为了简单起见,在对本申请中所描述的示例的描述中可以使用单数术语“处理器”或“计算机”,但在其他示例中,可以使用多个处理器或计算机,或者处理器或计算机可以包括多个处理元件或多种类型的处理元件或两者兼而有之。例如,单个硬件组件或者两个或更多个硬件组件可以由单个处理器或者两个或更多个处理器或者处理器和控制器实现。一个或多个硬件组件可以由一个或多个处理器或处理器和控制器实现,一个或多个其他硬件组件可以由一个或多个其他处理器或另一处理器和另一控制器实现。一个或多个处理器或者处理器和控制器可以实现单个硬件组件或者两个或更多个硬件组件。硬件组件可以具有任何一种或多种不同的处理配置,其示例包括单个处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理和多指令多数据(MIMD)多处理。
由计算硬件执行用于执行本申请中所描述的操作的方法,例如,由一个或多个处理器或计算机执行所述方法,所述一个或多个处理器或计算机如上所述地执行指令或软件以执行本申请中所描述的由所述方法执行的操作。例如,单个操作或者两个或更多个操作可以由单个处理器或者两个或更多个处理器或者处理器和控制器执行。一个或多个操作可以由一个或多个处理器或者处理器和控制器执行,并且一个或多个其他操作可以由一个或多个其他处理器或另一处理器和另一控制器执行。一个或多个处理器或者处理器和控制器可以执行单个操作或者两个或更多个操作。
用于控制处理器或计算机实现硬件组件并执行上述方法的指令或软件被编写成计算机程序、代码段、指令或其任何组合,以便单独地或共同地指示或配置处理器或计算机作为机器或专用计算机进行操作,以执行由硬件组件执行的操作和上述方法。在示例中,指令或软件包括以下至少一项:小应用程序、动态链接库(DLL)、中间件、固件、设备驱动程序、存储防止冲突的方法的应用程序。在一个示例中,指令或软件包括由处理器或计算机直接执行的机器代码,例如由编译器产生的机器代码。在另一个示例中,指令或软件包括由处理器或计算机使用解释器执行的更高级代码。本领域的普通编程人员能够基于附图中所示出的框图和流程图以及说明书中公开了用于执行由硬件组件执行的操作和上述方法的算法的对应描述来容易地编写指令或软件。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件以及任何相关联的数据、数据文件和数据结构可以被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中或其上。非暂时性计算机可读存储介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储设备、光学数据存储设备、硬盘、固态盘以及任何其他设备,所述任何其他设备被配置为以非暂时性方式存储指令或软件以及任何相关联的数据、数据文件和数据结构并向一个或多个处理器或计算机提供指令或软件以及任何相关联的数据、数据文件和数据结构以使得所述一个或多个处理器或计算机可以执行指令。在一个示例中,指令或软件以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得一个或多个处理器或计算机以分布方式存储、访问和执行所述指令和软件以及任何相关联的数据、数据文件和数据结构。
尽管本公开包括特定示例,但在理解了本申请的公开之后将清楚的是,在不脱离权利要求及其等同物的精神和范围的情况下,可以对这些示例进行形式和细节上的各种改变。本文中所描述的示例应被认为仅是描述性的,而不是出于限制的目的。对每个示例中的特征或方面的描述应被认为适用于其他示例中的类似特征或方面。如果所描述的技术按不同的顺序执行和/或如果所描述的系统、架构、设备或电路中的组件以不同的方式组合和/或被其他组件或其等同物替换或补充,则可以实现合适的结果。因此,本公开的范围不是由具体实施方式限定,而是由权利要求及其等同物限定,并且在权利要求及其等同物的范围内的所有变化应被解释为包括在本公开中。
Claims (34)
1.一种定位方法,包括:
获取设备的定位信息;
生成第一图像,所述第一图像包括与输入图像中包括的对象相对应的方向特性;
生成第二图像,在所述第二图像中,所述对象基于所述定位信息而投影到与所述对象的位置相对应的地图数据上;以及
基于所述第一图像和所述第二图像之间的视觉对准来更新所述定位信息。
2.根据权利要求1所述的定位方法,其中,所述定位信息包括装置的位置和装置的姿势。
3.根据权利要求2所述的定位方法,其中,生成第二图像包括:
在所述地图数据上所述位置处放置虚拟相机;以及
基于所述装置的姿势调整所述虚拟相机的姿势;以及
生成从所述虚拟相机观看所述对象的视角的图像。
4.根据权利要求1所述的定位方法,其中,所述方向特性对应于指示与所述对象的接近度的概率分布。
5.根据权利要求1所述的定位方法,其中:
所述输入图像基于第一传感器的输出,以及
所述定位信息基于第二传感器的输出。
6.根据权利要求1所述的定位方法,还包括:
确定所述地图数据上用于增强现实AR服务的虚拟对象;以及
基于调整的定位信息显示所述虚拟对象和所述输入图像。
7.根据权利要求6所述的定位方法,其中,所述虚拟对象表示驾驶路线信息。
8.根据权利要求1所述的定位方法,其中,生成第一图像包括:使用经训练的神经网络生成表示所述方向特性的概率图。
9.根据权利要求8所述的定位方法,其中,所述概率图中的每个像素被配置为存储从所述每个像素到最接近的种子像素的距离。
10.根据权利要求9所述的定位方法,其中,所述种子像素包括所述输入图像中包括的像素之中与所述对象相对应的像素。
11.根据权利要求1所述的定位方法,其中,生成第二图像包括:使用变换器生成所述第二图像,其中所述变换器被配置为将所述地图数据的坐标系变换为所述第二图像的坐标系。
12.根据权利要求1所述的定位方法,其中,所述定位信息包括6自由度6DoF。
13.根据权利要求1所述的定位方法,其中,更新所述定位信息包括:
通过将所述第一图像和所述第二图像相匹配来计算视觉对准度;以及
基于所述方向特性修改所述定位信息以增加所述视觉对准度。
14.根据权利要求13所述的定位方法,其中,所述计算包括:将所述第一图像中的像素之中与所述第二图像中的所述对象相对应的像素的值相加。
15.根据权利要求13所述的定位方法,其中,基于所述方向特性修改所述定位信息包括:基于所述方向特性修改所述定位信息以对所述第二图像中的所述对象进行变换。
16.根据权利要求13所述的定位方法,其中,基于所述方向特性修改所述定位信息包括:基于所述方向特性移动或旋转所述第二图像中的所述对象。
17.根据权利要求1所述的定位方法,其中,所述第一图像被配置为基于对象类型将所述对象分类,并针对每种对象类型存储方向特性,以及
所述第二图像被配置为基于所述对象类型将所述对象分类,并针对每种对象类型存储投影对象。
18.根据权利要求17所述的定位方法,其中,所述修改包括:
通过将所述第一图像和所述第二图像相匹配来针对每种对象类型计算视觉对准度;以及
基于所述方向特性修改所述定位信息以增加所述视觉对准度。
19.根据权利要求1所述的定位方法,其中,所述输入图像包括车辆的驾驶图像。
20.根据权利要求1所述的定位方法,其中,所述对象包括以下项中的任何一个或任何组合:线、路面标记、交通灯、标志、路缘石和结构。
21.一种存储指令的非暂时性计算机可读存储介质,其中,当所述指令由处理器执行时,使得所述处理器执行权利要求1所述的定位方法。
22.一种学习方法,包括:
接收学习图像;
基于用于所述学习图像的地图数据生成参考图像,所述参考图像包括与所述学习图像中的对象相对应的方向特性;
使用神经网络生成推断图像,所述推断图像推断与所述学习图像中的所述对象相对应的方向特性;以及
基于所述参考图像和所述推断图像之间的差异训练所述神经网络。
23.根据权利要求22所述的学习方法,其中,所述训练包括:训练所述神经网络,以使所述参考图像和所述推断图像之间的差异最小化。
24.根据权利要求22所述的学习方法,其中,所述方向特性对应于指示与所述对象的接近度的概率分布。
25.根据权利要求22所述的学习方法,其中,所述参考图像和所述推断图像中的每个像素被配置为存储从所述每个像素到最接近的种子像素的距离。
26.根据权利要求22所述的学习方法,其中,所述参考图像和所述推断图像中的每一个被配置为基于对象类型将所述对象分类,并针对每种对象类型存储所述方向特性。
27.根据权利要求26所述的学习方法,其中,所述训练包括:基于所述参考图像和所述推断图像之间的类型差异训练所述神经网络。
28.根据权利要求22所述的学习方法,其中,所述学习图像包括车辆的驾驶图像。
29.根据权利要求22所述的学习方法,其中,所述对象包括以下项中的任何一个或任何组合:线、路面标记、交通灯、标志、路缘石和结构。
30.一种存储指令的非暂时性计算机可读存储介质,其中,当所述指令由处理器执行时,使得所述处理器执行权利要求22所述的学习方法。
31.一种定位装置,包括:
传感器,被配置为获取设备的定位信息和输入图像;以及
处理器,被配置为:生成第一图像,所述第一图像包括与所述输入图像中包括的对象相对应的方向特性;生成第二图像,在所述第二图像中,所述对象基于所述定位信息而投影到与所述对象的位置相对应的地图数据上;以及基于所述第一图像和所述第二图像之间的视觉对准来调整所述定位信息。
32.一种定位方法,包括:
获取与设备的位置相对应的输入图像;
接收与对象的位置相对应的地图数据;
生成第二图像,在所述第二图像中,所述对象基于多个相应的候选定位信息而投影到所述地图数据上;
通过将所述输入图像与每个所述第二图像相匹配来针对每个所述第二图像计算视觉对准度;
从所述第二图像中选择具有最高视觉对准度的第二图像;以及
基于与所选择的第二图像相对应的候选定位信息更新定位信息。
33.根据权利要求32所述的定位方法,还包括:
生成第一图像,所述第一图像包括指示与所述对象相对应的方向特性的概率图,以及
其中,计算所述视觉对准度包括:将所述第一图像与每个所述第二图像相匹配。
34.一种定位装置,包括:
第一传感器,被配置为捕获图像;
第二传感器,被配置为获取设备的定位信息;
平视显示器HUD;
处理器,被配置为:
生成第一图像,所述第一图像包括与所述图像中包括的对象相对应的方向特性;
生成第二图像,在所述第二图像中,所述对象基于所述定位信息而投影到与所述对象的位置相对应的地图数据上;
基于所述第一图像和所述第二图像之间的视觉对准来更新所述定位信息;以及
在用于增强现实AR服务的所述HUD中,基于更新的定位信息,将所述对象和所述图像显示到所述地图数据上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0108252 | 2018-09-11 | ||
KR1020180108252A KR20200029785A (ko) | 2018-09-11 | 2018-09-11 | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110889872A true CN110889872A (zh) | 2020-03-17 |
Family
ID=67253823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910241914.XA Pending CN110889872A (zh) | 2018-09-11 | 2019-03-27 | 在增强现实中显示虚拟对象的定位方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11037368B2 (zh) |
EP (1) | EP3623761B1 (zh) |
JP (1) | JP7269082B2 (zh) |
KR (1) | KR20200029785A (zh) |
CN (1) | CN110889872A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111459269A (zh) * | 2020-03-24 | 2020-07-28 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
CN112781620A (zh) * | 2020-12-30 | 2021-05-11 | 东风汽车集团有限公司 | 一种基于高精度地图系统的ar-hud影像标定调整系统及方法 |
CN113434620A (zh) * | 2021-06-25 | 2021-09-24 | 阿波罗智联(北京)科技有限公司 | 显示方法、装置、设备、存储介质以及计算机程序产品 |
CN113566847A (zh) * | 2021-07-22 | 2021-10-29 | 北京百度网讯科技有限公司 | 导航校准方法和装置、电子设备、计算机可读介质 |
US11590423B2 (en) | 2021-03-29 | 2023-02-28 | Niantic, Inc. | Multi-user route tracking in an augmented reality environment |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017230184B2 (en) | 2016-03-11 | 2021-10-07 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
JP6772944B2 (ja) * | 2017-04-19 | 2020-10-21 | トヨタ自動車株式会社 | 自動運転システム |
JP6847885B2 (ja) * | 2018-03-20 | 2021-03-24 | 株式会社東芝 | 情報処理装置、情報処理方法及びプログラム |
KR102627453B1 (ko) | 2018-10-17 | 2024-01-19 | 삼성전자주식회사 | 위치 추정 장치 및 방법 |
US10824151B2 (en) * | 2019-01-31 | 2020-11-03 | StradVision, Inc. | Method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle |
EP3973468A4 (en) | 2019-05-21 | 2022-09-14 | Magic Leap, Inc. | HANDPOSITION ESTIMATING |
US11829128B2 (en) | 2019-10-23 | 2023-11-28 | GM Global Technology Operations LLC | Perception system diagnosis using predicted sensor data and perception results |
IT202000006472A1 (it) * | 2020-03-27 | 2021-09-27 | Invisible Cities S R L | Sistema configurato per associare uno scenario virtuale ad uno scenario reale durante il movimento di un veicolo all’interno di una area geografica di interesse. |
GB2594249A (en) | 2020-04-20 | 2021-10-27 | Continental Automotive Gmbh | Method for creating a virtual environment reconstruction of an actual location |
CN111623795B (zh) * | 2020-05-28 | 2022-04-15 | 阿波罗智联(北京)科技有限公司 | 实景导航图标显示方法、装置、设备和介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1656524A (zh) * | 2002-03-22 | 2005-08-17 | 易卜拉欣·纳拉 | 车辆的导航、防撞、和控制系统 |
WO2006035755A1 (ja) * | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
US20090228204A1 (en) * | 2008-02-04 | 2009-09-10 | Tela Atlas North America, Inc. | System and method for map matching with sensor detected objects |
CN101978394A (zh) * | 2008-03-19 | 2011-02-16 | 微软公司 | 在地图上可视化照相机馈入 |
JP2014127027A (ja) * | 2012-12-26 | 2014-07-07 | Nippon Soken Inc | 境界線認識装置 |
US20160061612A1 (en) * | 2014-09-02 | 2016-03-03 | Hyundai Motor Company | Apparatus and method for recognizing driving environment for autonomous vehicle |
CN105676253A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法 |
EP3056861A1 (en) * | 2015-02-12 | 2016-08-17 | Honda Research Institute Europe GmbH | Method and system in a vehicle for improving prediction results of an advantageous driver assistant system |
US20160358383A1 (en) * | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
US9612123B1 (en) * | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US20170169300A1 (en) * | 2015-12-15 | 2017-06-15 | Honda Motor Co., Ltd. | System and method for image based vehicle localization |
CN106980814A (zh) * | 2016-01-15 | 2017-07-25 | 福特全球技术公司 | 用显著性地图的行人检测 |
CN107031656A (zh) * | 2015-12-18 | 2017-08-11 | 福特全球技术公司 | 用于车轮止动器检测的虚拟传感器数据生成 |
US20180180422A1 (en) * | 2016-12-27 | 2018-06-28 | Toyota Jidosha Kabushiki Kaisha | Position calculating apparatus |
CN108351685A (zh) * | 2015-08-15 | 2018-07-31 | 谷歌有限责任公司 | 用于与真实和虚拟对象交互的基于生物力学的眼睛信号的系统和方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7224831B2 (en) * | 2004-02-17 | 2007-05-29 | Honda Motor Co. | Method, apparatus and program for detecting an object |
KR100774591B1 (ko) | 2006-03-31 | 2007-11-09 | (주)더싸인 | 네비게이션 시스템 및 이를 이용한 네비게이션 방법 |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US20120300020A1 (en) * | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US9047376B2 (en) * | 2012-05-01 | 2015-06-02 | Hulu, LLC | Augmenting video with facial recognition |
JP5968064B2 (ja) | 2012-05-08 | 2016-08-10 | アルパイン株式会社 | 走行レーン認識装置および走行レーン認識方法 |
US20140323148A1 (en) | 2013-04-30 | 2014-10-30 | Qualcomm Incorporated | Wide area localization from slam maps |
KR102020629B1 (ko) | 2013-05-09 | 2019-11-04 | 현대모비스 주식회사 | 증강 현실을 이용하여 헤드업 디스플레이 향상 방법 및 시스템 |
US9524434B2 (en) | 2013-10-04 | 2016-12-20 | Qualcomm Incorporated | Object tracking based on dynamically built environment map data |
JP6368149B2 (ja) * | 2014-06-04 | 2018-08-01 | キヤノン株式会社 | 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法 |
JP6393214B2 (ja) | 2015-03-03 | 2018-09-19 | アルパイン株式会社 | 車線認識システム及びコンピュータプログラム |
JP6550819B2 (ja) * | 2015-03-19 | 2019-07-31 | 富士ゼロックス株式会社 | 選択支援装置及びプログラム |
US9852547B2 (en) * | 2015-03-23 | 2017-12-26 | International Business Machines Corporation | Path visualization for augmented reality display device based on received data and probabilistic analysis |
EP3078935A1 (en) | 2015-04-10 | 2016-10-12 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Method and device for real-time mapping and localization |
CN113364983A (zh) * | 2015-09-18 | 2021-09-07 | 索尼公司 | 图像处理设备、图像处理方法、程序和摄像系统 |
US10540768B2 (en) * | 2015-09-30 | 2020-01-21 | Samsung Electronics Co., Ltd. | Apparatus and method to segment object from image |
CN108701237B (zh) * | 2016-01-15 | 2022-01-18 | 英卓美特公司 | 用于跨越多个组装单元自动生成公共测量的方法 |
CN106127120B (zh) * | 2016-06-16 | 2018-03-13 | 北京市商汤科技开发有限公司 | 姿势估计方法和装置、计算机系统 |
US10229215B2 (en) * | 2016-09-26 | 2019-03-12 | Disney Enterprises, Inc. | Visualisation and navigation of transmedia content data |
CN108121764B (zh) * | 2016-11-26 | 2022-03-11 | 星克跃尔株式会社 | 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质 |
US10452927B2 (en) * | 2017-08-09 | 2019-10-22 | Ydrive, Inc. | Object localization within a semantic domain |
US10540589B2 (en) * | 2017-10-24 | 2020-01-21 | Deep North, Inc. | Image quality assessment using similar scenes as reference |
US10763989B2 (en) * | 2018-10-16 | 2020-09-01 | Nec Corporation | Machine learning based classification of higher-order spatial modes |
-
2018
- 2018-09-11 KR KR1020180108252A patent/KR20200029785A/ko not_active Application Discontinuation
-
2019
- 2019-01-28 US US16/259,420 patent/US11037368B2/en active Active
- 2019-03-27 CN CN201910241914.XA patent/CN110889872A/zh active Pending
- 2019-04-15 JP JP2019077030A patent/JP7269082B2/ja active Active
- 2019-07-11 EP EP19185859.6A patent/EP3623761B1/en active Active
-
2021
- 2021-06-01 US US17/335,199 patent/US11842447B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1656524A (zh) * | 2002-03-22 | 2005-08-17 | 易卜拉欣·纳拉 | 车辆的导航、防撞、和控制系统 |
WO2006035755A1 (ja) * | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
US20090228204A1 (en) * | 2008-02-04 | 2009-09-10 | Tela Atlas North America, Inc. | System and method for map matching with sensor detected objects |
CN101978394A (zh) * | 2008-03-19 | 2011-02-16 | 微软公司 | 在地图上可视化照相机馈入 |
JP2014127027A (ja) * | 2012-12-26 | 2014-07-07 | Nippon Soken Inc | 境界線認識装置 |
US20160061612A1 (en) * | 2014-09-02 | 2016-03-03 | Hyundai Motor Company | Apparatus and method for recognizing driving environment for autonomous vehicle |
EP3056861A1 (en) * | 2015-02-12 | 2016-08-17 | Honda Research Institute Europe GmbH | Method and system in a vehicle for improving prediction results of an advantageous driver assistant system |
US20160358383A1 (en) * | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
CN108351685A (zh) * | 2015-08-15 | 2018-07-31 | 谷歌有限责任公司 | 用于与真实和虚拟对象交互的基于生物力学的眼睛信号的系统和方法 |
US9612123B1 (en) * | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US20170169300A1 (en) * | 2015-12-15 | 2017-06-15 | Honda Motor Co., Ltd. | System and method for image based vehicle localization |
CN107031656A (zh) * | 2015-12-18 | 2017-08-11 | 福特全球技术公司 | 用于车轮止动器检测的虚拟传感器数据生成 |
CN106980814A (zh) * | 2016-01-15 | 2017-07-25 | 福特全球技术公司 | 用显著性地图的行人检测 |
CN105676253A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法 |
US20180180422A1 (en) * | 2016-12-27 | 2018-06-28 | Toyota Jidosha Kabushiki Kaisha | Position calculating apparatus |
Non-Patent Citations (4)
Title |
---|
DARIU M. GAVRILA: "A Bayesian, Exemplar-Based Approach to Hierarchical Shape Matching", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 29, no. 8, 31 August 2007 (2007-08-31), pages 1 - 14, XP011185895, DOI: 10.1109/TPAMI.2007.1062 * |
HEBA ALY等: "semMatch: Road Semantics-based Accurate MapMatching for Challenging Positioning Data", 《ARXIV》, 13 October 2015 (2015-10-13), pages 1 - 11, XP055885888, DOI: 10.1145/2820783.2820824 * |
廖依伊: "正则化深度学习及其在机器人环境感知中的应用", 《中国博士学位论文全文数据库 信息科技辑》, no. 08, 15 August 2018 (2018-08-15), pages 140 - 8 * |
徐利义: "基于深度学习和视觉图像的机器人定位与地图构建", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 06, 15 June 2018 (2018-06-15), pages 138 - 1203 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111459269A (zh) * | 2020-03-24 | 2020-07-28 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
CN111459269B (zh) * | 2020-03-24 | 2020-12-01 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
CN112781620A (zh) * | 2020-12-30 | 2021-05-11 | 东风汽车集团有限公司 | 一种基于高精度地图系统的ar-hud影像标定调整系统及方法 |
CN112781620B (zh) * | 2020-12-30 | 2022-03-18 | 东风汽车集团有限公司 | 一种基于高精度地图系统的ar-hud影像标定调整系统及方法 |
US11590423B2 (en) | 2021-03-29 | 2023-02-28 | Niantic, Inc. | Multi-user route tracking in an augmented reality environment |
TWI804257B (zh) * | 2021-03-29 | 2023-06-01 | 美商尼安蒂克公司 | 用於在擴增實境環境中之多使用者路線追蹤之方法、非暫時性電腦可讀儲存媒體及電腦系統 |
CN113434620A (zh) * | 2021-06-25 | 2021-09-24 | 阿波罗智联(北京)科技有限公司 | 显示方法、装置、设备、存储介质以及计算机程序产品 |
CN113566847A (zh) * | 2021-07-22 | 2021-10-29 | 北京百度网讯科技有限公司 | 导航校准方法和装置、电子设备、计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
US20200082621A1 (en) | 2020-03-12 |
EP3623761A1 (en) | 2020-03-18 |
KR20200029785A (ko) | 2020-03-19 |
US20210287438A1 (en) | 2021-09-16 |
JP7269082B2 (ja) | 2023-05-08 |
JP2020042002A (ja) | 2020-03-19 |
US11037368B2 (en) | 2021-06-15 |
EP3623761B1 (en) | 2022-03-23 |
US11842447B2 (en) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11842447B2 (en) | Localization method and apparatus of displaying virtual object in augmented reality | |
US11113544B2 (en) | Method and apparatus providing information for driving vehicle | |
US11761791B2 (en) | Modifying map elements associated with map data | |
US10331957B2 (en) | Method, apparatus, and system for vanishing point/horizon estimation using lane models | |
US11312372B2 (en) | Vehicle path prediction | |
US11176719B2 (en) | Method and apparatus for localization based on images and map data | |
US20210192748A1 (en) | Prediction on top-down scenes based on object motion | |
US20210149022A1 (en) | Systems and methods for 3d object detection | |
JP2022527324A (ja) | 自律ドライビング機能の新領域への拡張 | |
CN109426256A (zh) | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 | |
CN111060094A (zh) | 车辆定位方法和装置 | |
US20220274625A1 (en) | Graph neural networks with vectorized object representations in autonomous vehicle systems | |
CN113916242B (zh) | 车道定位方法和装置、存储介质及电子设备 | |
US10891795B2 (en) | Localization method and apparatus based on 3D color map | |
US20200160033A1 (en) | System and method for lifting 3d representations from monocular images | |
CN115705693A (zh) | 用于传感器数据的标注的方法、系统和存储介质 | |
WO2023043620A1 (en) | Road network validation | |
US11238292B2 (en) | Systems and methods for determining the direction of an object in an image | |
JP7427556B2 (ja) | 運転制御装置、運転制御方法及びプログラム | |
US20240119857A1 (en) | Systems and methods for training a scene simulator using real and simulated agent data | |
CN114972136A (zh) | 3d目标检测模型的训练方法、3d目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |