CN112699765A - 评估视觉定位算法的方法、装置、电子设备及存储介质 - Google Patents
评估视觉定位算法的方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112699765A CN112699765A CN202011558559.8A CN202011558559A CN112699765A CN 112699765 A CN112699765 A CN 112699765A CN 202011558559 A CN202011558559 A CN 202011558559A CN 112699765 A CN112699765 A CN 112699765A
- Authority
- CN
- China
- Prior art keywords
- image
- positioning
- real environment
- vehicle
- simulated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 84
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000004807 localization Effects 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 17
- 230000002159 abnormal effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000004927 fusion Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000000737 periodic effect Effects 0.000 description 5
- 235000002566 Capsicum Nutrition 0.000 description 4
- 239000006002 Pepper Substances 0.000 description 4
- 241000722363 Piper Species 0.000 description 4
- 235000016761 Piper aduncum Nutrition 0.000 description 4
- 235000017804 Piper guineense Nutrition 0.000 description 4
- 235000008184 Piper nigrum Nutrition 0.000 description 4
- 150000003839 salts Chemical class 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
本公开提供了一种评估视觉定位算法的方法、装置、电子设备及存储介质,涉及自动驾驶技术领域,尤其是视觉定位技术。实现方案为:一种用于评估视觉定位算法的方法,包括:获取车辆行驶时真实环境的图像,以及车辆的定位真值;处理真实环境的图像以生成模拟图像,其中,模拟图像包括真实环境的图像与模拟场景的叠加;以及将模拟图像输入视觉定位算法以计算定位结果,并将定位结果与定位真值进行比较。
Description
技术领域
本公开涉及自动驾驶技术领域,尤其是视觉定位技术,具体涉及一种用于评估视觉定位算法的方法、装置、电子设备、计算机可读存储介质及计算机程序产品。
背景技术
定位系统是自动驾驶系统的基础功能,对于车辆周围环境的感知、车辆运动的决策、规划控制具有至关重要的作用。视觉定位是定位系统中的一种,对于自动驾驶系统的定位起着重要作用。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种用于评估视觉定位算法的方法、装置、电子设备、计算机可读存储介质及计算机程序产品。
根据本公开的一方面,提供了一种用于评估视觉定位算法的方法,包括:获取车辆行驶时真实环境的图像,以及所述车辆的定位真值;处理所述真实环境的图像以生成模拟图像,其中,所述模拟图像包括所述真实环境的图像与模拟场景的叠加;以及将所述模拟图像输入所述视觉定位算法以计算定位结果,并将所述定位结果与所述定位真值进行比较。
根据本公开的另一方面,提供了一种用于评估视觉定位算法的装置,包括:数据获取模块,被配置为获取车辆行驶时真实环境的图像,以及所述车辆的定位真值;图像处理模块,被配置为处理所述真实环境的图像以生成模拟图像,其中,所述模拟图像包括所述真实环境的图像与模拟场景的叠加;以及评估模块,被配置为将所述模拟图像输入所述视觉定位算法以计算定位结果,并将所述定位结果与所述定位真值进行比较。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的另一方面,提供了存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据如上所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现上述方法。
根据本公开的一个或多个实施例,可以创建丰富的场景用于视觉定位算法的评估,提高对视觉定位算法的评估能力。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1示出了根据本公开实施例的用于评估视觉定位算法的方法的流程图;
图2(a)和图2(b)示出了根据本公开实施例的向真实环境的图像添加与模拟场景相对应的噪声的示例;
图3示出了根据本公开一个实施例的用于评估视觉定位算法的装置的框图;
图4示出了根据本公开另一个实施例的用于评估视觉定位算法的装置的框图;
图5示出了能够应用于本公开实施例的电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个元件与另一元件区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
在目前用于自动驾驶系统的视觉定位技术中,所需的车载图像信息的采集受到各种因素的制约(例如法律法规的规定、自然场景稀有等等),难以覆盖各种真实的自然场景,因而也无法确保视觉定位技术中所使用的视觉定位算法针对这些场景的可用性。本公开所提出的用于评估视觉定位算法的方法,旨在用于评估视觉定位算法在各种场景下的鲁棒性,以确保视觉定位算法针对这些场景的可用性。
下面将结合附图详细描述本公开的实施例。
图1示出了根据本公开实施例的用于评估视觉定位算法的方法的流程图。如图1所示,所述用于评估视觉定位算法的方法可以包括:
步骤S101,获取车辆行驶时真实环境的图像,以及所述车辆的定位真值;
步骤S102,处理所述真实环境的图像以生成模拟图像,其中,所述模拟图像包括所述真实环境的图像与模拟场景的叠加;以及
步骤S103,将所述模拟图像输入所述视觉定位算法以计算定位结果,并将所述定位结果与所述定位真值进行比较。
根据本公开实施例的用于评估视觉定位算法的方法,可以通过真实环境下准确的定位真值作为评估标准来判断视觉定位算法对于各种场景的鲁棒性。借助于生成模拟图像来模拟各种难以实际获得的场景图像,可以创建丰富的场景用于视觉定位算法的评估,提高对视觉定位算法的评估能力。
在本公开中,“车辆”意指诸如无人车之类的各种自动驾驶系统。“视觉定位算法”意指利用视觉定位技术对车辆进行定位所使用的算法。目前,不同厂商针对其生产的自动驾驶系统可能具有自己独有的视觉定位算法。例如,视觉定位算法可以是DA4AD算法(用于自动驾驶的端对端深度注意力感知特征辅助视觉定位)。
本领域技术人员可以理解,本公开中不对这些视觉定位算法进行限制。
为了对视觉定位算法进行评估,可以首先获取用于进行评估的评估标准。在本公开中,该评估标准可以被称为“定位真值”。定位真值可以代表车辆在行驶时的轨迹,即行驶时各个时刻的位置和/或姿态,或者也可简称为位姿。
为此,根据本公开的实施例,在步骤S101中,可以获取车辆行驶时真实环境的图像,以及所述车辆的定位真值。
获取车辆行驶时真实环境的图像可以包括获取车辆行驶时所经过的道路场景的图像,即如上所述的车载图像信息。例如,道路场景可以包括高速公路场景和城市道路场景。城市道路场景可以诸如是林荫路、隧道、立交桥等。城市道路场景还可以包括被高楼遮挡的道路场景等。更多的场景图像可以便于在后续步骤中创建关于更多场景图像的模拟图像,以便评估视觉定位算法在各种场景下的鲁棒性。
可选地,真实环境的图像可以是通过车辆的车载摄像设备在多个方向拍摄的。由此,能够确保计算更为准确的定位真值作为评估标准。在一个示例中,车辆的车载摄像设备可以在360度的范围内包括9个摄像头,以朝向9个不同的方向拍摄图像。
在获取到车辆行驶时真实环境的图像之后,还可以获取所述车辆的定位真值。如上所述,定位真值被用作评估标准,代表了车辆在行驶时的轨迹,即行驶时各个时刻的位置和/或姿态。
可选地,所述定位真值可以是基于所述真实环境的图像以及由所述车辆的传感器获得的定位信息而计算得到的。由此,能够采用融合定位方式获得精确的定位真值作为评估标准。
在一个示例中,车辆的传感器可以是全球导航卫星系统GNSS传感器,其对应于GNSS定位方式。在此情况下,可以通过如下的融合定位方式来计算定位真值。首先,可以通过GNSS定位方式从卫星和基站数据获取到车辆在行驶过程中的各个时刻的位姿,其精度一般可以在厘米级。然后,可以在其基础上结合车载图像信息(即拍摄到的车辆行驶时真实环境的图像)进行优化,进一步计算出更为精确的位姿,即定位真值。
可选地,除视觉定位之外,融合定位方式还可以包括激光雷达LiDAR定位、全球导航卫星系统GNSS定位、惯导定位等多种定位方式的结合。相应地,车辆的传感器可以包括下列中至少一种:激光雷达LiDAR、全球导航卫星系统GNSS、惯性测量单元IMU。由此,能够采用不同的融合定位方式来提高计算定位真值的准确度,以作为评估标准。
融合定位方式中的各种定位方法可以具有相应的权重或者可信度。正如上述示例,在GNSS定位的基础上使用视觉定位来获得精确的位姿,因此视觉定位算法的鲁棒性也是至关重要的。
如上所述,在目前的视觉定位技术中,所需的车载图像信息的采集受到各种因素的制约,难以覆盖各种真实的自然场景。为此,根据本公开的实施例,在步骤S102中,可以处理真实环境的图像以生成模拟图像,其中,所述模拟图像包括所述真实环境的图像与模拟场景的叠加。即,可以利用真实环境的图像来创建某些难以通过实际采集获得的场景,由此进行场景的模拟。
可选地,处理所述真实环境的图像可以包括:向所述真实环境的图像添加与所述模拟场景相对应的噪声。由此,便于模拟无法通过正常的采集方式获得的各种故障场景和自然场景。
可选地,所述模拟场景可以包括下列中至少一种:所述车辆的传感器故障、所述车辆受到的电磁干扰、非正常光线、非正常天气。由此,能够创建各种故障场景和自然场景便于评估视觉定位算法对于各种场景的鲁棒性。
在一个示例中,对于模拟车辆的传感器故障的场景,可以在真实环境的图像中添加例如高斯噪声。高斯噪声是概率密度函数服从高斯分布的噪声。在实际情况中,产生高斯噪声的原因例如可以是因为图像传感器长期工作,导致温度过高。因此,可以借由在真实环境的图像中添加高斯噪声来模拟图像传感器温度过高的场景。例如,可以通过基于python脚本语言的skimage函数来实现。
图2(a)和图2(b)示出了根据本公开实施例的向真实环境的图像添加与模拟场景相对应的噪声的示例。其中,图2(a)示出根据本公开实施例的所获取的真实环境的图像,且图2(b)示出了在所述真实环境的图像中添加高斯噪声后的图像。图2(a)和图2(b)所示的示例可以是模拟车辆的传感器故障的场景。
一般而言,车辆行驶过程中很少会经历传感器故障的情况,因而难以采集到与传感器故障相关的车载图像信息,继而难以评估视觉定位算法在该场景下的可用性。然而,根据本公开实施例的用于评估视觉定位算法的方法,可以通过向真实环境的图像添加与模拟场景相对应的噪声来创建模拟图像。由此,便于模拟无法通过正常的采集方式获得的各种故障场景。
在另一示例中,可以通过在真实环境的图像中添加例如周期噪声来模拟车辆受到电磁干扰。在实际情况中,电磁干扰可能会导致周期噪声的产生,而受到周期噪声干扰会导致图像异常,并且常见的异常为条状水波纹型干扰。因此,可以借由在真实环境的图像中添加周期噪声来模拟车辆受到电磁干扰的场景。例如,可以通过对空间域图像增加正弦波信号噪声来实现。
本领域技术人员可以理解,如上所述的添加高斯噪声和周期噪声的示例仅是说明性的实例。根据需要进行模拟的场景,也可以向真实环境的图像添加其他类型的噪声,只要其与需要进行模拟的场景相对应即可。
例如,还可以使用椒盐噪声。椒盐噪声又称为脉冲噪声,它随机改变一些像素值,产生黑白相间的亮暗点噪声。实际情况中,椒盐噪声往往由图像传感器、传输信道、解码处理等所产生。因此,可以借由椒盐噪声来模拟与这些场景相关的故障。
在其他示例中,可以通过在真实环境的图像中添加用于调整环境光线变化的噪声,来模拟早晨、夜晚等非正常光线场景。可以通过在真实环境的图像中添加与雨天、雾天、雾霾等相对应的噪声来模拟这些非正常天气。此外,还可以根据气象台的天气预报,比如雨量和雾霾指数来相应调整噪声的表现。
其他的噪声示例还可以是诸如瑞利噪声、空间位置相关噪声、掩膜噪声、高频噪声、非偏心式噪声、舒适噪声等等各种不同的噪声。本领域技术人员可以理解,本文中并未穷尽能够使用的所有噪声,各种噪声具有其特定的产生原因和构造方法,可以通过期望模拟的场景来适当地选取合适的噪声。
根据本公开的实施例,在创建模拟图像之后,在步骤S103中,可以将模拟图像输入视觉定位算法以计算定位结果,并将定位结果与定位真值进行比较。
由于模拟图像是带有反映各种场景的噪声的图像,将其输入到视觉定位算法之后可以相应计算出对应于各种场景的定位结果。如果视觉定位算法针对某个场景的鲁棒性强,则通过该场景的模拟图像所计算出的定位结果与先前计算出的定位真值之间的差异应当不会太大。因此,也可以预先设置一阈值来判断定位结果与定位真值之间的差异大小,该阈值可以反映对于偏差的容错度。
可选地,所述用于评估视觉定位算法的方法还可以包括:基于定位结果与定位真值之间的差异,确定视觉定位算法的可信度。由此,能够形成评估结果的反馈机制,使得在融合定位中准确地确定视觉定位算法的权重。
如上所述,包括视觉定位、激光雷达LiDAR定位、全球导航卫星系统GNSS定位、惯导定位等的融合定位方式中的各种定位方法可以具有相应的权重或者可信度。视觉定位是其中的一种价格经济的主流方案,因此视觉定位算法的鲁棒性也是至关重要的。如果上述比较的结果是通过场景的模拟图像所计算出的定位结果与先前计算出的定位真值之间的差异超过所述阈值,则可能表明视觉定位算法针对当前场景的鲁棒性不强,因此,可以适当降低所述视觉定位算法在融合定位方式中的可信度,以降低其可能影响定位精度的概率。反之,如果比较的结果是二者的差异在所述阈值内,则可能表明视觉定位算法针对当前场景的鲁棒性强,由此,可以维持或者提高所述视觉定位算法在融合定位方式中的可信度。
根据本公开实施例的用于评估视觉定位算法的方法,可以通过真实环境下准确的定位真值作为评估标准来判断视觉定位算法对于各种场景的鲁棒性。借助于生成模拟图像来模拟各种难以实际获得的场景图像,可以创建丰富的场景用于视觉定位算法的评估,提高对视觉定位算法的评估能力。
根据本公开的另一方面,还提供了一种用于评估视觉定位算法的装置。图3示出了根据本公开一个实施例的用于评估视觉定位算法的装置的框图。如图3所示,用于评估视觉定位算法的装置300可以包括:
数据获取模块301,被配置为获取车辆行驶时真实环境的图像,以及车辆的定位真值;
图像处理模块302,被配置为处理真实环境的图像以生成模拟图像,其中,模拟图像包括真实环境的图像与模拟场景的叠加;以及
评估模块303,被配置为将模拟图像输入视觉定位算法以计算定位结果,并将定位结果与定位真值进行比较。
用于评估视觉定位算法的装置300的上述模块301、302和303的操作可以分别与前面结合图1描述的步骤S101、S102、S103的操作对应,在此不再赘述。
可选地,真实环境的图像可以是通过车辆的车载摄像设备在多个方向拍摄的。
可选地,定位真值可以是基于真实环境的图像以及由车辆的传感器获得的定位信息而计算得到的。
可选地,传感器可以包括下列中至少一种:激光雷达LiDAR、全球导航卫星系统GNSS、惯性测量单元IMU。
图4示出了根据本公开另一个实施例的用于评估视觉定位算法的装置的框图。参见图4,用于评估视觉定位算法的装置400可以包括数据获取模块401、图像处理模块402和评估模块403。上述模块401、402、403与结合图3描述的模块301、302和303的操作类似,因此在此不再赘述。
图像处理模块402还可以包括噪声添加模块4020,所述噪声添加模块4020可以被配置为向所述真实环境的图像添加与模拟场景相对应的噪声。
可选地,模拟场景可以包括下列中至少一种:车辆的传感器故障、车辆受到的电磁干扰、非正常光线、非正常天气。
用于评估视觉定位算法的装置400还可以包括反馈模块404,所述反馈模块404可以被配置为:基于定位结果与定位真值之间的差异,确定视觉定位算法的可信度。
根据本公开的另一方面,还提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的另一方面,还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本公开的另一方面,还提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现如上所述的方法。
参考图5,现将描述可以应用于本公开的电子设备500的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,电子设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储电子设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
电子设备500中的多个部件连接至I/O接口505,包括:输入单元506、输出单元507、存储单元508以及通信单元509。输入单元506可以是能向电子设备500输入信息的任何类型的设备,输入单元506可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元507可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元508可以包括但不限于磁盘、光盘。通信单元509允许电子设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、1302.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如用于评估视觉定位算法的方法。例如,在一些实施例中,用于评估视觉定位算法的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到电子设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的用于评估视觉定位算法的方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于评估视觉定位算法的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
Claims (17)
1.一种用于评估视觉定位算法的方法,包括:
获取车辆行驶时真实环境的图像,以及所述车辆的定位真值;
处理所述真实环境的图像以生成模拟图像,其中,所述模拟图像包括所述真实环境的图像与模拟场景的叠加;以及
将所述模拟图像输入所述视觉定位算法以计算定位结果,并将所述定位结果与所述定位真值进行比较。
2.如权利要求1所述的方法,其中,所述真实环境的图像是通过所述车辆的车载摄像设备在多个方向拍摄的。
3.如权利要求1所述的方法,其中,所述定位真值是基于所述真实环境的图像以及由所述车辆的传感器获得的定位信息而计算得到的。
4.如权利要求3所述的方法,其中,所述传感器包括下列中至少一种:激光雷达LiDAR、全球导航卫星系统GNSS、惯性测量单元IMU。
5.如权利要求1所述的方法,其中,所述处理所述真实环境的图像包括:向所述真实环境的图像添加与所述模拟场景相对应的噪声。
6.如权利要求5所述的方法,其中,所述模拟场景包括下列中至少一种:所述车辆的传感器故障、所述车辆受到的电磁干扰、非正常光线、非正常天气。
7.如权利要求1所述的方法,所述方法还包括:基于所述定位结果与所述定位真值之间的差异,确定所述视觉定位算法的可信度。
8.一种用于评估视觉定位算法的装置,包括:
数据获取模块,被配置为获取车辆行驶时真实环境的图像,以及所述车辆的定位真值;
图像处理模块,被配置为处理所述真实环境的图像以生成模拟图像,其中,所述模拟图像包括所述真实环境的图像与模拟场景的叠加;以及
评估模块,被配置为将所述模拟图像输入所述视觉定位算法以计算定位结果,并将所述定位结果与所述定位真值进行比较。
9.如权利要求8所述的装置,其中,所述真实环境的图像是通过所述车辆的车载摄像设备在多个方向拍摄的。
10.如权利要求8所述的装置,其中,所述定位真值是基于所述真实环境的图像以及由所述车辆的传感器获得的定位信息而计算得到的。
11.如权利要求10所述的装置,其中,所述传感器包括下列中至少一种:激光雷达LiDAR、全球导航卫星系统GNSS、惯性测量单元IMU。
12.如权利要求8所述的装置,其中,所述图像处理模块包括噪声添加模块,所述噪声添加模块被配置为向所述真实环境的图像添加与所述模拟场景相对应的噪声。
13.如权利要求12所述的装置,其中,所述模拟场景包括下列中至少一种:所述车辆的传感器故障、所述车辆受到的电磁干扰、非正常光线、非正常天气。
14.如权利要求8所述的装置,所述装置还包括反馈模块,所述反馈模块被配置为:基于所述定位结果与所述定位真值之间的差异,确定所述视觉定位算法的可信度。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011558559.8A CN112699765A (zh) | 2020-12-25 | 2020-12-25 | 评估视觉定位算法的方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011558559.8A CN112699765A (zh) | 2020-12-25 | 2020-12-25 | 评估视觉定位算法的方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112699765A true CN112699765A (zh) | 2021-04-23 |
Family
ID=75510332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011558559.8A Pending CN112699765A (zh) | 2020-12-25 | 2020-12-25 | 评估视觉定位算法的方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112699765A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643440A (zh) * | 2021-07-06 | 2021-11-12 | 北京百度网讯科技有限公司 | 定位方法、装置、设备和存储介质 |
WO2022228251A1 (zh) * | 2021-04-26 | 2022-11-03 | 华为技术有限公司 | 一种车辆驾驶方法、装置及系统 |
CN115588131A (zh) * | 2022-09-30 | 2023-01-10 | 北京瑞莱智慧科技有限公司 | 模型鲁棒性检测方法、相关装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709486A (zh) * | 2016-11-11 | 2017-05-24 | 南京理工大学 | 基于深度卷积神经网络的自动车牌识别方法 |
CN108268831A (zh) * | 2017-12-01 | 2018-07-10 | 百度在线网络技术(北京)有限公司 | 一种无人车视觉检测的鲁棒性测试方法和系统 |
WO2019032481A1 (en) * | 2017-08-08 | 2019-02-14 | Siemens Aktiengesellschaft | GENERATING SYNTHESIS DEPTH IMAGES FROM CAD DATA USING GENERATIVE CONTRASICITY NEURAL NETWORKS FOR ENHANCED ENHANCEMENT |
CN109405824A (zh) * | 2018-09-05 | 2019-03-01 | 武汉契友科技股份有限公司 | 一种适用于智能网联汽车的多源感知定位系统 |
CN109459734A (zh) * | 2018-10-30 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | 一种激光雷达定位效果评估方法、装置、设备及存储介质 |
CN110120072A (zh) * | 2013-12-19 | 2019-08-13 | 苹果公司 | 用于跟踪移动设备的方法和系统 |
-
2020
- 2020-12-25 CN CN202011558559.8A patent/CN112699765A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120072A (zh) * | 2013-12-19 | 2019-08-13 | 苹果公司 | 用于跟踪移动设备的方法和系统 |
CN106709486A (zh) * | 2016-11-11 | 2017-05-24 | 南京理工大学 | 基于深度卷积神经网络的自动车牌识别方法 |
WO2019032481A1 (en) * | 2017-08-08 | 2019-02-14 | Siemens Aktiengesellschaft | GENERATING SYNTHESIS DEPTH IMAGES FROM CAD DATA USING GENERATIVE CONTRASICITY NEURAL NETWORKS FOR ENHANCED ENHANCEMENT |
CN108268831A (zh) * | 2017-12-01 | 2018-07-10 | 百度在线网络技术(北京)有限公司 | 一种无人车视觉检测的鲁棒性测试方法和系统 |
CN109405824A (zh) * | 2018-09-05 | 2019-03-01 | 武汉契友科技股份有限公司 | 一种适用于智能网联汽车的多源感知定位系统 |
CN109459734A (zh) * | 2018-10-30 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | 一种激光雷达定位效果评估方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
裴志松;时兵;: "智能机器人视觉障碍识别方法研究与仿真", 计算机仿真, no. 01 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022228251A1 (zh) * | 2021-04-26 | 2022-11-03 | 华为技术有限公司 | 一种车辆驾驶方法、装置及系统 |
CN113643440A (zh) * | 2021-07-06 | 2021-11-12 | 北京百度网讯科技有限公司 | 定位方法、装置、设备和存储介质 |
CN115588131A (zh) * | 2022-09-30 | 2023-01-10 | 北京瑞莱智慧科技有限公司 | 模型鲁棒性检测方法、相关装置及存储介质 |
CN115588131B (zh) * | 2022-09-30 | 2024-02-06 | 北京瑞莱智慧科技有限公司 | 模型鲁棒性检测方法、相关装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112699765A (zh) | 评估视觉定位算法的方法、装置、电子设备及存储介质 | |
CN109435955B (zh) | 一种自动驾驶系统性能评估方法、装置、设备及存储介质 | |
Bai et al. | Using Sky‐pointing fish‐eye camera and LiDAR to aid GNSS single‐point positioning in urban canyons | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
CN115616937B (zh) | 自动驾驶仿真测试方法、装置、设备和计算机可读介质 | |
CN113378605B (zh) | 多源信息融合方法及装置、电子设备和存储介质 | |
CN110989619B (zh) | 用于定位对象的方法、装置、设备和存储介质 | |
CN114758502B (zh) | 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆 | |
CN115019060A (zh) | 目标识别方法、目标识别模型的训练方法及装置 | |
CN114018269B (zh) | 定位方法、装置、电子设备、存储介质以及自动驾驶车辆 | |
CN111461980B (zh) | 点云拼接算法的性能估计方法和装置 | |
CN113177980A (zh) | 用于自动驾驶的目标对象速度确定方法、装置及电子设备 | |
CN115357500A (zh) | 自动驾驶系统的测试方法、装置、设备和介质 | |
CN115575931A (zh) | 标定方法、装置、电子设备及存储介质 | |
CN115374016A (zh) | 一种测试场景仿真系统、方法、电子设备及存储介质 | |
CN115657494A (zh) | 虚拟对象仿真方法、装置、设备及存储介质 | |
CN115147561A (zh) | 位姿图生成方法、高精地图生成方法和装置 | |
CN114394111A (zh) | 用于自动驾驶车辆的变道方法 | |
CN114281832A (zh) | 基于定位结果的高精地图数据更新方法、装置和电子设备 | |
CN116449807B (zh) | 一种物联网汽车操控系统仿真测试方法及系统 | |
CN113485347B (zh) | 一种运动轨迹的优化方法、系统 | |
CN115468778B (zh) | 车辆测试方法、装置、电子设备及存储介质 | |
CN115019278B (zh) | 一种车道线拟合方法、装置、电子设备和介质 | |
CN115761680A (zh) | 地面要素信息获取方法、装置、电子设备及车辆 | |
CN116466685A (zh) | 针对自动驾驶感知算法的评测方法及装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |