CN116259035A - 一种标注数据的生成方法及装置 - Google Patents

一种标注数据的生成方法及装置 Download PDF

Info

Publication number
CN116259035A
CN116259035A CN202310012760.3A CN202310012760A CN116259035A CN 116259035 A CN116259035 A CN 116259035A CN 202310012760 A CN202310012760 A CN 202310012760A CN 116259035 A CN116259035 A CN 116259035A
Authority
CN
China
Prior art keywords
dimensional vector
vector map
road section
generating
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310012760.3A
Other languages
English (en)
Inventor
薛宇飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Horizon Robotics Technology Research and Development Co Ltd
Original Assignee
Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Horizon Robotics Technology Research and Development Co Ltd filed Critical Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority to CN202310012760.3A priority Critical patent/CN116259035A/zh
Publication of CN116259035A publication Critical patent/CN116259035A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Abstract

本公开公开了一种标注数据的生成方法及装置。该方法中,可以分别基于第一时刻拍摄第一路段得到的第一图像集,构建第一路段的第一三维矢量地图,以及,基于第二时刻拍摄第二路段得到的第二图像集,构建第二路段的第二三维矢量地图。然后,可以基于第一三维矢量地图和第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图。最后,可以基于第三三维矢量地图,生成第三路段中静态对象的标注数据。通过该方法,可以基于重构的第一路段和第二路段的三维矢量地图融合生成第三路段的三维矢量地图,从而清楚确定出第三路段中静态对象的信息,进而得到各静态对象的标注数据,极大地提高了标注数据的获取效率。

Description

一种标注数据的生成方法及装置
技术领域
本公开涉及自动驾驶或辅助驾驶技术领域,尤其涉及一种标注数据的生成方法及装置。
背景技术
在自动驾驶或辅助驾驶过程中,车辆需要通过自动识别模型和传感器(例如摄像机),对周围地理环境中的静态对象(例如车道线、红绿灯、路标等)进行识别,以便可以规划正确的行驶路线。
自动识别模型需要通过带有标注数据的已知图像进行训练。所以,首先需要准备大量的带有标注数据的已知图像。在现有技术中,通常采用人工标注的方式,对图像中的静态对象进行标注,以此确定静态对象的标注数据,得到带有标注数据的已知图像。通过此种方式,需要人工对每一帧图像进行手动标注,工作量较大,效率较低。
发明内容
目前,自动驾驶或辅助驾驶应用场景中,训练自动识别模型的过程中,获取带有标注数据的已知图像的方式,工作量较大,效率较低。
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种标注数据的生成方法及装置。
根据本公开的一个方面,提供了一种标注数据的生成方法,该方法包括:
基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图;
基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图;所述第二路段所在区域与所述第一路段所在区域重叠;
基于所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图;所述第三路段所在区域覆盖所述第一路段所在区域和所述第二路段所在区域;
基于所述第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
根据本公开的另一个方面,提供了一种标注数据的生成装置,该装置包括:
第一图像构建模块,用于基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图;
第二图像构建模块,用于基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图;所述第二路段所在区域与所述第一路段所在区域重叠;
融合模块,用于基于所述第一图像构建模块得到的第一三维矢量地图和所述第二图像构建模块得到的第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图;所述第三路段所在区域覆盖所述第一路段所在区域和所述第二路段所在区域;
标注数据生成模块,用于基于所述融合模块得到的第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
根据本公开的另一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述标注数据的生成方法。
根据本公开的另一个方面,提供了一种电子设备,该电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述标注数据的生成方法。
基于本公开提供的上述方案,可以分别基于第一时刻拍摄第一路段得到的第一图像集,构建第一路段的第一三维矢量地图;以及,基于第二时刻拍摄第二路段得到的第二图像集,构建第二路段的第二三维矢量地图。其中,第二路段所在区域与第一路段所在区域重叠。然后,可以基于第一三维矢量地图和第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图,其中,第三路段所在区域覆盖第一路段所在区域和第二路段所在区域。最后,可以基于第三三维矢量地图,生成第三路段中静态对象的标注数据。可见,采用本公开提供的上述方案,可以基于重构的第一路段和第二路段的三维矢量地图融合生成第三路段的三维矢量地图,从而可以清楚确定出第三路段中静态对象的信息,使得基于第三路段的三维矢量地图,可以自动识别出第三路段中的各静态对象,进而得到各静态对象的标注数据,极大地提高了标注数据的获取效率。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开一示例性实施例提供的应用场景示意图。
图2是本公开一示例性实施例提供的标注数据的生成方法的流程示意图。
图3是本公开另一示例性实施例提供的标注数据的生成方法的流程示意图。
图4是本公开另一示例性实施例提供的标注数据的生成方法的流程示意图。
图5是本公开另一示例性实施例提供的标注数据的生成方法的流程示意图。
图6是本公开另一示例性实施例提供的标注数据的生成方法的流程示意图。
图7是本公开另一示例性实施例提供的应用场景示意图。
图8是本公开另一示例性实施例提供的应用场景示意图。
图9是本公开另一示例性实施例提供的标注数据的生成方法的流程示意图。
图10是本公开一示例性实施例提供的标注数据的生成装置的结构框图。
图11是本公开另一示例性实施例提供的标注数据的生成装置的结构框图。
图12是本公开一示例性实施例提供的电子设备的结构框图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
申请概述
本公开提供的技术方案可以应用于自动驾驶或辅助驾驶的应用场景中。在自动驾驶或辅助驾驶的过程中,自动驾驶载体(例如车辆或飞行器等)通常需要通过自动识别模型(例如图像感知识别模型)和传感器(例如摄像机),对周围地理环境中的静态对象(例如车道线、红绿灯、路标等)进行识别,以便可以规划正确的行驶路线。
在利用自动识别模型识别静态对象之前,需要通过带有标注数据的已知图像对自动识别模型进行训练,基于此,需要预先准备大量的带有标注数据的已知图像。
现有技术中,通常通过人工手动标注的方式,对图像中的静态对象进行标注,从而得到带有标注数据的已知图像。通过此种方式,需要人工对每一帧图像进行手动标注,工作量较大,效率极其低下。
为了解决上述技术问题,提高获取带有标注数据的已知图像的效率,本公开提供了一种标注数据的生成方法及装置。通过本公开提供的方案,可以基于重构的第一路段和第二路段的三维矢量地图融合生成第三路段的三维矢量地图,从而可以清楚地确定出第三路段中静态对象的信息,使得基于第三路段的三维矢量地图,可以自动识别出第三路段中的各静态对象,进而得到各静态对象的标注数据,极大地提高了标注数据的获取效率,能够高效快速地获得带有标注数据的已知图像,适用性更好。
示例性系统
为了便于理解本公开的技术方案,下面结合附图,先对本公开提供的技术方案的应用场景进行示例性说明。
图1是本公开一示例性实施例提供的应用场景示意图。如图1所示,本公开的应用场景可以包括:用于生成标注数据的终端设备100(以下简称终端设备100),设置有多相机系统的载具200(以下简称载具200)。
需要说明的是,在其他一些示例性实施例中,还可以将终端设备100替换为用于生成标注数据的服务器(以下简称服务器)。或者,还可以将终端设备100替换为用于生成标注数据的控制器、数据中心或云平台等,本公开对此不进行限制。以下示例性实施例中,以终端设备100为例,对本公开提供的技术方案进行示例性说明。
其中,多相机系统可以包括多个相机,该多个相机分别设置于载具200的不同位置,可以从不同角度对载具200周围的地理环境进行拍摄。可选地,这多个相机可以同时从不同角度对载具200周围的地理环境进行拍摄。可选地,这多个相机也可以分别在不同时刻对载具200周围的地理环境进行拍摄。具体可以根据实际应用场景的需求设置。例如,在本公开后续的示例性实施例中,可以通过多相机系统的多个相机同时从不同角度对载具200周围的地理环境进行拍摄。
示例性地,多相机系统可以包括6个相机,分别设置于载具200的前端、后端、左前端、左后端、右前端和右后端。通过这6个相机,可以同时采集载具200的前视图像、后视图像、左后视图像、左前视图像、右后视图像和右前视图像,6个相机的采集范围可以覆盖载具200周围的全部区域。
载具200可以将多相机系统中任意一个相机拍摄得到的图像与拍摄该图像的拍摄时间一起对应存储。
终端设备100可以通过无线连接或有线连接的方式,与载具200进行通信连接,从载具200获取存储的图像和该图像对应的拍摄时间。
此外,终端设备100、多相机系统和载具200的示例性功能还可以参考后续实施例的内容,此处不再详述。
示例性方法
图2是本公开一示例性实施例提供的标注数据的生成方法的流程示意图。本实施例可应用在用于生成标注数据的终端设备(以下简称终端设备)上,例如图1所示的终端设备100,如图2所示,包括如下步骤:
步骤S201,基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图。
结合前述内容可知,设置有多相机系统的载具,例如图1所示的设置有多相机系统的载具200,可以通过其多相机系统对载具周围的地理环境进行拍摄。其中,载具的多相机系统可以包括多个相机,这多个相机可以设置于载具的不同位置,通过多相机系统的多个相机,可以从不同的角度,同时对载具周围的地理环境进行拍摄。
示例性地,这多个相机的视角可以设置为360度覆盖载具周围的地理环境。对于多相机系统中的每一个相机,其视角可以设置为载具前进方向上的45度或60度等,或者,也可以设置为载具尾端所对方向上的45度或60度等。多相机系统的多个相机之间的视角可以存在部分重叠,以便载具周围360度的地理环境中的信息都可以被采集。
一种可能的应用场景中,载具可以以一定的运行速度在实际地理环境中运行。在载具运行的过程中,载具上多相机系统的各相机,可以按照相同的频率,周期性地对载具周围的地理环境进行拍摄。即,载具上多相机系统的各相机,可以按照相同的频率,每间隔预设时长(预设时长可以根据应用场景的需求设置),从不同角度,同时对载具周围的地理环境进行一次拍摄。此外,每次拍摄时,载具可以将多相机系统中各相机拍摄得到的图像和各图像对应的拍摄时间对应存储。
终端设备可以通过有线连接方式或无线连接方式,与载具进行通信连接。然后,终端设备可以从载具获取多相机系统中各相机拍摄得到的图像和各图像分别对应的拍摄时间。
本公开中,可以将载具在需要获取标注数据的静态对象所在的地理环境中运行时,任意一次拍摄的拍摄时间记为第一时刻,将第一时刻载具上的多相机系统的多个相机从不同角度同时拍摄载具周围的地理环境时,这多个相机的视角覆盖载具周围的地理环境区域,记为第一路段,将多相机系统中各相机分别拍摄第一路段得到的图像均记为第一图像。则,第一图像集可以包括载具上多相机系统的多个相机从不同角度同时拍摄第一路段得到的多帧第一图像。
可见,第一图像集中包含多帧第一图像,这多帧第一图像分别从第一路段的不同角度,反映了第一路段中静态对象的信息。终端设备获取到第一图像集之后,可以根据这多帧第一图像,重构第一路段的三维矢量地图。本公开中,将第一路段的三维矢量地图记为第一三维矢量地图。显然,通过第一三维矢量地图可以确定第一路段中静态对象的信息。
示例性地,第一路段中的静态对象可以包括自动驾驶领域或辅助驾驶领域的感兴趣对象,该感兴趣对象对自动驾驶或辅助驾驶中的行驶策略规划具有一定影响。例如,第一路段中的静态对象可以包括车道线、指示牌、红绿灯等静态对象。
示例性地,第一路段的第一三维矢量地图可以包括用于指示第一路段中静态对象的位置的信息,以及用于指示第一路段中静态对象的类别属性的信息等。
需要说明的是,三维矢量地图也可以称为三维语义点云地图。第一路段的第一三维矢量地图也可以称为第一路段的第一三维语义点云地图。
步骤S202,基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图。
其中,第二时刻可以为第一时刻之前,载具上多相机系统某次拍摄的拍摄时间,或者,第二时刻也可以为第一时刻之后,载具上多相机系统某次拍摄的拍摄时间。本公开中,将第二时刻载具上多相机系统的多个相机从不同角度同时拍摄载具周围的地理环境时,这多个相机的视角覆盖载具周围的地理环境区域,记为第二路段,将多相机系统中各相机分别拍摄第二路段得到的图像均记为第二图像。则,第二图像集可以包括载具上多相机系统的多个相机从不同角度同时拍摄第二路段得到的多帧第二图像。
同理,第二图像集中包含多帧第二图像,这多帧第二图像分别从第二路段的不同角度,反映了第二路段中静态对象的信息。终端设备从载具获取到第二图像集之后,可以根据这多帧第二图像,重构第二路段的三维矢量地图。本公开中,将第二路段的三维矢量地图记为第二三维矢量地图。显然,通过第二三维矢量地图可以确定第二路段中静态对象的信息。
第一路段所在区域与第二路段所在区域可以全部重叠,或者,第一路段所在区域与第二路段所在区域也可以部分重叠,本公开对此不进行限定。
示例性地,第二路段中的静态对象也可以包括自动驾驶领域或辅助驾驶领域的感兴趣对象,该感兴趣对象对自动驾驶或辅助驾驶中的行驶策略规划具有一定影响。例如,第二路段中的静态对象也可以包括车道线、指示牌、红绿灯等静态对象。
示例性地,第二路段的第二三维矢量地图可以包括用于指示第二路段中静态对象的位置的信息,以及用于指示第二路段中静态对象的类别属性的信息等。
需要说明的是,第二路段的第二三维矢量地图也可以称为第二路段的第二三维语义点云地图。
步骤S203,基于所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图。
终端设备构建得到第一路段的第一三维矢量地图和第二路段的第二三维矢量地图之后,可以对第一三维矢量地图和第二三维矢量地图进行聚类融合,得到聚类融合后的新的三维矢量地图,本公开中,将聚类融合后得到的新的三维矢量地图记为第三三维矢量地图。
对应于第一三维矢量地图和第二三维矢量地图的聚类融合,第一三维矢量地图对应的地理环境区域与第二三维矢量地图对应的地理环境区域,相应地合并为一个新的地理环境区域,本公开中,将合并得到的新的地理环境区域记为第三路段。即,第一路段和第二路段合并为第三路段。显然,第三路段所在区域可以覆盖第一路段所在区域和第二路段所在区域。
步骤S204,基于所述第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
本公开提供的标注数据的生成方法中,可以基于重构的第一路段的三维矢量地图和第二路段的三维矢量地图融合生成第三路段的三维矢量地图,从而可以清楚地确定出第三路段中静态对象的信息,使得基于第三路段的三维矢量地图,可以自动识别出第三路段中的各静态对象,进而得到各静态对象的标注数据,极大地提高了标注数据的获取效率,能够高效快速地获得带有标注数据的已知图像,适用性更好。
在本公开其它示例性实施例中,除了第一三维矢量地图和第二三维矢量地图,还可以聚类融合更多三维矢量地图,得到聚类融合后的新的三维矢量地图,然后基于新的三维矢量地图,生成静态对象的标注数据。基于此,在本公开另一示例性实施例中,还可以参见图3。如图3所示,标注数据的生成方法,可以包括如下步骤:
步骤S301,基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图。
步骤S301的具体内容,可以参考前述实施例的内容,此处不再赘述。
步骤S302,基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图。
步骤S302的具体内容,可以参考前述实施例的内容,此处不再赘述。
步骤S303,基于第三时刻拍摄第四路段得到的第三图像集,构建所述第四路段的第四三维矢量地图。
其中,第三时刻可以为第一时刻和第二时刻之前,载具上多相机系统某次拍摄的拍摄时间。或者,第三时刻也可以为第一时刻和第二时刻之后,载具上多相机系统某次拍摄的拍摄时间。或者,第三时刻还可以为第一时刻和第二时刻之间,载具上多相机系统某次拍摄的拍摄时间。
本公开中,将第三时刻载具上多相机系统的多个相机从不同角度同时拍摄载具周围的地理环境时,这多个相机的视角覆盖载具周围的地理环境区域,记为第四路段,将多相机系统中各相机分别拍摄第四路段得到的图像均记为第三图像。则,第三图像集可以包括载具上多相机系统的多个相机从不同角度同时拍摄第四路段得到的多帧第三图像。
同理,第三图像集中包含多帧第三图像,这多帧第三图像分别从第四路段的不同角度,反映了第四路段中静态对象的信息。终端设备从载具获得第三图像集之后,可以根据这多帧第三图像,重构第四路段的三维矢量地图。本公开中,将第四路段的三维矢量地图记为第四三维矢量地图。显然,通过第四三维矢量地图可以确定第四路段中静态对象的信息。
第一路段所在区域和第二路段所在区域,均可以与第四路段所在区域全部重叠,或者,第一路段所在区域和第二路段所在区域,均可以与第四路段所在区域部分重叠,本公开对此不进行限定。
示例性地,第四路段中的静态对象可以包括自动驾驶领域或辅助驾驶领域的感兴趣对象,该感兴趣对象对自动驾驶或辅助驾驶中的行驶策略规划具有一定影响。例如,第四路段中的静态对象可以包括车道线、指示牌、红绿灯等静态对象。
示例性地,第四路段的第四三维矢量地图可以包括用于指示第四路段中静态对象的位置的信息,以及用于指示第四路段中静态对象的类别属性的信息等。
需要说明的是,第四路段的第四三维矢量地图也可以称为第四路段的第四三维语义点云地图。
步骤S304,基于所述第一三维矢量地图、所述第二三维矢量地图和所述第四三维矢量地图,聚类融合生成第三路段的第三三维矢量地图。
终端设备构建得到第一路段的第一三维矢量地图、第二路段的第二三维矢量地图和第四路段的第四三维矢量地图之后,可以对第一三维矢量地图、第二三维矢量地图和第四三维矢量地图进行聚类融合,得到聚类融合后的新的三维矢量地图,本实施例中,将聚类融合后得到的新的三维矢量地图记为第三三维矢量地图。
对应于第一三维矢量地图、第二三维矢量地图和第四三维矢量地图的聚类融合,第一三维矢量地图对应的地理环境区域、第二三维矢量地图对应的地理环境区域和第四三维矢量地图对应的地理环境区域,相应地合并为一个新的地理环境区域,本实施例中,将合并得到的新的地理环境区域记为第三路段。即,第一路段、第二路段和第四路段合并为第三路段。显然,第三路段所在区域可以覆盖第一路段所在区域、第二路段所在区域和第四路段所在区域。
步骤S305,基于所述第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
需要说明的是,还可以聚类融合更多三维矢量地图,得到聚类融合后的新的三维矢量地图。即,除了第一三维矢量地图、第二三维矢量地图和第四三维矢量地图,还可以聚类融合更多三维矢量地图,得到第三路段的第三三维矢量地图。然后基于第三路段的第三三维矢量地图,生成第三路段中静态对象的标注数据。具体实现方式类同,可以参考前述实施例的内容,此处不再详述。
并且,为了得到更加精确的标注数据,前述多个三维矢量地图可以为同一路段的三维矢量地图。即,通过不同时刻拍摄同一路段得到的图像集,分别构建一个该路段的三维矢量地图,得到该路段的多个三维矢量地图。然后基于该多个三维矢量地图聚类融合生成该路段的新的三维矢量地图。之后,基于聚类融合后得到的新的三维矢量地图,获取该路段中静态对象的标注数据,得到的标注数据更加精确。
本公开提供的标注数据的生成方法中,可以基于重构的第一路段的三维矢量地图、第二路段的三维矢量地图和第四路段的三维矢量地图,或者,更多的三维矢量地图,融合生成第三路段的三维矢量地图,从而可以清楚地确定出第三路段中静态对象的信息,使得基于第三路段的三维矢量地图,可以自动识别出第三路段中的各静态对象,进而得到各静态对象的标注数据,极大地提高了标注数据的获取效率,能够高效快速地获得带有标注数据的已知图像,适用性更好。
在本公开另一示例性实施例提供的标注数据的生成方法中,如图4所示,在上述图2所示实施例的基础上,步骤S201可以包括以下步骤:
步骤S2011,对第一图像集包含的每一帧第一图像进行语义分割处理,或者,进行语义分割处理和目标检测处理,得到各所述第一图像分别对应的第一预处理图像。
示例性地,终端设备得到第一时刻拍摄的第一图像集之后,可以对第一图像集包括的每一帧第一图像进行语义分割处理,得到各第一图像分别对应的第一预处理图像。此种应用场景下,第一图像的第一预处理图像可以包括第一路段中静态对象的语义信息(或者,也可以称为语义特征)。示例性地,第一路段中静态对象的语义信息可以用于指示第一路段中静态对象的类别属性。
示例性地,终端设备得到第一时刻拍摄的第一图像集之后,还可以对第一图像集包括的每一帧第一图像进行语义分割处理和目标检测处理,得到各第一图像分别对应的第一预处理图像。此种应用场景下,第一图像的第一预处理图像可以包括第一路段中静态对象的语义信息,以及第一路段中静态对象的初始标注信息(或者,也可以称为初始标注特征)。
第一预处理图像包括的语义信息,可以用于指示该第一预处理图像中静态对象的类别属性,例如,可以用于指示第一预处理图像中静态对象为车道线、红绿灯或指示牌等。第一预处理图像包括的初始标注信息,可以用于在第一预处理图像中标注出相应的静态对象。
步骤S2012,获取各所述第一图像分别对应的第一相机位姿。
终端设备获取到第一图像集后,需要分别获取用于拍摄第一图像集中每帧第一图像的相机的位姿。即,终端设备需要获取每帧第一图像分别对应的相机的位姿。本公开中,将分别用于拍摄各第一图像对应的相机的位姿,均记为第一相机位姿。
步骤S2013,基于各所述第一预处理图像和各所述第一预处理图像分别对应的所述第一相机位姿,构建第一三维矢量地图。
其中,第一预处理图像对应的第一相机位姿,是指生成该第一预处理图像的第一图像对应的第一相机位姿。
终端设备获取到各第一预处理图像,以及各第一预处理图像分别对应的第一相机位姿后,可以基于各第一相机位姿,将相应的第一预处理图像中包括的静态对象的信息,映射到同一个三维矢量地图中,从而重构得到第一路段的三维矢量地图,即重构得到第一三维矢量地图。
基于第一三维矢量地图,可以确定第一路段中静态对象的信息,例如位置信息、语义信息等。
本公开提供的标注数据的生成方法中,可以基于从第一路段的不同角度同时拍摄得到的多帧第一图像,以及各第一图像分别对应的相机位姿,重构得到第一路段的三维矢量地图,基于第一路段的三维矢量地图,可以确定第一路段中静态对象的信息。便于后续自动识别第一路段中的各静态对象,进而得到各静态对象的标注数据,可以提高标注数据的获取效率。
在本公开另一示例性实施例提供的标注数据的生成方法中,如图5所示,在上述图2所示实施例的基础上,步骤S202可以包括以下步骤:
步骤S2021,对第二图像集包含的每一帧第二图像进行语义分割处理,或者,进行语义分割处理和目标检测处理,得到各所述第二图像分别对应的第二预处理图像。
示例性地,终端设备得到第二时刻拍摄的第二图像集之后,可以对第二图像集包括的每一帧第二图像进行语义分割处理,得到各第二图像分别对应的第二预处理图像。此种应用场景下,第二图像的第二预处理图像可以包括第二路段中静态对象的语义信息。示例性地,第二路段中静态对象的语义信息可以用于指示第二路段中静态对象的类别属性。
示例性地,终端设备得到第二时刻拍摄的第二图像集之后,还可以对第二图像集包括的每一帧第二图像进行语义分割处理和目标检测处理,得到各第二图像分别对应的第二预处理图像。此种应用场景下,第二图像的第二预处理图像可以包括第二路段中静态对象的语义信息,以及第二路段中静态对象的初始标注信息。
第二预处理图像包括的语义信息,可以用于指示该第二预处理图像中静态对象的类别属性,例如,可以用于指示第二预处理图像中静态对象为车道线、红绿灯或指示牌等。第二预处理图像包括的初始标注信息,可以用于在第二预处理图像中标注出相应的静态对象。
步骤S2022,获取各所述第二图像分别对应的第二相机位姿。
终端设备获取到第二图像集后,需要分别获取用于拍摄第二图像集中每帧第二图像的相机的位姿。即,终端设备需要获取每帧第二图像分别对应的相机的位姿。本公开中,将分别用于拍摄各第二图像对应的相机的位姿,均记为第二相机位姿。
步骤S2023,基于各所述第二预处理图像和各所述第二预处理图像分别对应的所述第二相机位姿,构建第二三维矢量地图。
其中,第二预处理图像对应的第二相机位姿,是指生成该第二预处理图像的第二图像对应的第二相机位姿。
终端设备获取到各第二预处理图像,以及各第二预处理图像分别对应的第二相机位姿后,可以基于各第二相机位姿,将相应的第二预处理图像中包括的静态对象的信息,映射到同一个三维矢量地图中,从而重构得到第二路段的三维矢量地图,即重构得到第二三维矢量地图。
基于第二三维矢量地图,可以确定第二路段中静态对象的信息,例如位置信息、语义信息等。
本公开提供的标注数据的生成方法中,可以基于从第二路段的不同角度同时拍摄得到的多帧第二图像,以及各第二图像分别对应的相机位姿,重构得到第二路段的三维矢量地图,基于第二路段的三维矢量地图,可以确定第二路段中静态对象的信息。便于后续自动识别第二路段中的各静态对象,进而得到各静态对象的标注数据,可以提高标注数据的获取效率。
在本公开另一示例性实施例提供的标注数据的生成方法中,如图6所示,在上述图2所示实施例的基础上,步骤S203可以包括以下步骤:
步骤S2031,对齐第一三维矢量地图和第二三维矢量地图。
终端设备重构得到第一路段的第一三维矢量地图和第二路段的第二三维矢量地图后,可以对齐第一三维矢量地图和第二三维矢量地图。
示例性地,在对齐第一三维矢量地图和第二三维矢量地图时,可以通过改变载具的位姿,使得第一三维矢量地图与第二三维矢量地图中相同的静态对象可以聚合在一起。
例如,如图7所示,图7中的(a)示出的是对齐之前的第一三维矢量地图和第二三维矢量地图。图7中的(b)示出的是对齐之后的第一三维矢量地图和第二三维矢量地图。
如图7中的(a)所示,对齐之前,第一三维矢量地图中的车道线和第二三维矢量地图中的车道线处于彼此分离的状态。第一三维矢量地图中用于指示静态对象的标注框和第二三维矢量地图中用于指示同一静态对象的标注框也处于彼此分离的状态。
如图7中的(b)所示,对齐之后,第一三维矢量地图中的车道线和第二三维矢量地图中的车道线相互重合在一起。第一三维矢量地图中用于指示静态对象的标注框和第二三维矢量地图中用于指示同一静态对象的标注框聚合在一起。
需要说明的是,在本公开其它示例性实施例中,还可以基于多个三维矢量地图聚类融合得到第三路段的第三三维矢量地图。此种应用场景下,对齐这多个三维矢量地图,可以参见图8。图8中的(a)示出的是对齐之前,这多个三维矢量地图,以及这多个三维矢量地图的重投影图像。图8中的(b)示出的是对齐之后,这多个三维矢量地图,以及这多个三维矢量地图的重投影图像。
如图8中的(a)所示,对齐之前,这多个三维矢量地图中的车道线彼此分离,相同静态对象的标注框也彼此分离。如图8中的(b)所示,对齐之后,这多个三维矢量地图中的车道线彼此重合在一起,相同静态对象的标注框也聚合在一起。
步骤S2032,基于对齐后的所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成第三三维矢量地图。
终端设备对齐第一三维矢量地图和第二三维矢量地图之后,可以将对齐后的第一三维矢量地图和第二三维矢量地图,聚类融合为第三三维矢量地图。
此外,终端设备对齐第一三维矢量地图和第二三维矢量地图之后,需要基于对齐后的第一三维矢量地图,优化各个相机的第一相机位姿,得到各第一相机位姿分别对应的第一优化相机位姿。具体实现时,可以根据第一三维矢量地图对齐前后,载具的位姿变化,优化载具上各个相机的第一相机位姿,得到各个第一相机位姿的第一优化相机位姿。
同理,终端设备对齐第一三维矢量地图和第二三维矢量地图之后,需要基于对齐后的第二三维矢量地图,优化各个相机的第二相机位姿,得到各个第二相机位姿分别对应的第二优化相机位姿。具体实现时,可以根据第二三维矢量地图对齐前后,载具的位姿变化,优化载具上各个相机的第二相机位姿,得到各个第二相机位姿的第二优化相机位姿。
之后,终端设备可以基于第三三维矢量地图、各第一优化相机位姿和各第二优化相机位姿,生成第三路段中静态对象的标注数据。
本公开提供的标注数据的生成方法中,可以对齐第一三维矢量地图和第二三维矢量地图,或者,可以对齐更多个三维矢量地图,然后可以将对齐后的第一三维矢量地图和第二三维矢量地图,或者更多个三维矢量地图,聚类融合成第三三维矢量地图。并且,还可以基于对齐的第一三维矢量地图和第二三维矢量地图,或者更多个三维矢量地图,分别优化相机位姿,得到优化后的相机位姿,之后,可以基于第三三维矢量地图和优化后的相机位姿,生成第三路段中静态对象的标注数据。由于第三三维矢量地图聚类融合了至少两个三维矢量地图,使得静态对象的信息更加完整,得到的标注数据更加精确。
在本公开另一示例性实施例提供的标注数据的生成方法中,如图9所示,在上述图6所示实施例的基础上,基于第三三维矢量地图、各第一优化相机位姿和各第二优化相机位姿,生成第三路段中静态对象的标注数据,可以包括以下步骤:
步骤S2041,通过反投影的方式,基于第三三维矢量地图、各第一优化相机位姿和各第二优化相机位姿,生成第三路段的二维图像。
终端设备获得第三三维矢量地图,以及各第一优化相机位姿和各第二优化相机位姿后,可以分别基于各第一优化相机位姿和各第二优化相机位姿,对第三三维矢量地图进行反投影,得到各个优化相机位姿分别对应的二维图像,这些二维图像为第三路段不同角度的二维图像,可以从第三路段的不同角度,反映第三路段中静态对象的信息。
步骤S2042,基于所述第三三维矢量地图、各所述第一优化相机位姿和各所述第二优化相机位姿,生成所述第三路段的鸟瞰图。
终端设备获得第三三维矢量地图,以及各第一优化相机位姿和各第二优化相机位姿后,还可以基于第三三维矢量地图,以及各第一优化相机位姿和各第二优化相机位姿,构建第三路段的鸟瞰图。第三路段的鸟瞰图,可以从鸟瞰视角,反映第三路段中静态对象的信息。
步骤S2043,基于所述二维图像生成所述第三路段中静态对象的二维标注数据。
终端设备通过反投影的方式,得到第三路段不同角度的二维图像之后,可以在每帧二维图像中标注出第三路段的静态对象,得到相应静态对象的二维标注数据。示例性地,静态对象的二维标注数据可以包括用于指示静态对象的位置的信息和用于指示静态对象的类别属性的信息。
示例性地,当静态对象为红绿灯、指示牌等非延展性静态对象时,可以在每帧二维图像中,通过二维标注框,标注该二维图像中的静态对象。此种场景下,静态对象的二维标注数据可以包括静态对象的二维标注框数据,通过该二维标注框数据可以指示相应静态对象的位置。
示例性地,当静态对象为车道线等延展性静态对象时,可以在每帧二维图像中,通过关键点或曲线,标注相应静态对象。此种场景下,静态对象的二维标注数据可以包括关键点数据或曲线数据,通过该关键点数据或曲线数据,可以指示相应静态对象的位置。
步骤S2044,基于所述鸟瞰图生成所述第三路段中静态对象的鸟瞰标注数据。
终端设备构建得到第三路段的鸟瞰图后,可以基于该鸟瞰图,对第三路段中的静态对象进行标注,得到相应静态对象的鸟瞰标注数据。示例性地,该鸟瞰标注数据可以为鸟瞰视角的BEV标注数据。
在本公开其它一些示例性实施例中,载具运行的地理环境中还可能存在一些动态对象,例如行驶的车辆或行人等。此种应用场景下,终端设备在基于第一时刻拍摄的第一图像集,构建第一路段的第一三维矢量地图的过程中,还可以基于第一图像集包括的各第一图像,以及各第一图像分别对应的第一相机位姿,构建动态对象在第一时刻的三维标注框(后续简称为第一三维标注框)。即,终端设备可以在第一三维矢量地图中,通过第一三维标注框,标注动态对象,获取动态对象在第一时刻的第一三维标注框数据。
同理,终端设备在基于第二时刻拍摄的第二图像集,构建第二路段的第二三维矢量地图的过程中,还可以基于第二图像集包括的各第二图像,以及各第二图像分别对应的第二相机位姿,构建动态对象在第二时刻的三维标注框(后续简称为第二三维标注框)。即,终端设备可以在第二三维矢量地图中,通过第二三维标注框,标注动态对象,获取动态对象在第二时刻的第二三维标注框数据。
之后,终端设备聚类融合得到第三三维矢量地图后,终端设备还可以基于第三三维矢量地图、各第一优化相机位姿和第一三维标注框数据,生成动态对象在第一时刻的标注数据。
同理,终端设备聚类融合得到第三三维矢量地图后,还可以基于第三三维矢量地图、各第二优化相机位姿和第二三维标注框数据,生成动态对象在第二时刻的标注数据。
此外,当第三三维矢量地图融合了多个三维矢量地图时,这多个三维矢量地图分别由不同时刻的图像集重构得到,则可以按照上述方式,得到动态对象在每一时刻的标注数据。
本公开提供的标注数据的生成方法中,可以基于由至少两个三维矢量地图聚类融合得到的三维矢量地图,反投影得到静态对象的二维标注数据。还可以基于聚类融合得到的三维矢量地图,构建鸟瞰图,之后,可以基于鸟瞰图得到静态对象的鸟瞰标注数据。此外,还可以基于动态对象在不同时刻的三维标注框数据,以及聚类融合得到的三维矢量地图,得到动态对象在不同时刻的标注数据。可见,通过本公开的方法,可以得到更加精确的标注数据,适用性更好。
示例性装置
图10是本公开一示例性实施例提供的标注数据的生成装置的结构框图。该装置可应用在终端设备上,例如图1所示的终端设备100。或者,该装置也可以为终端设备本身。采用该装置可以执行本公开上述任意一个实施例提供的标注数据的生成方法,并且可以得到相应的有益效果。
如图10所示,本公开提供的标注数据的生成装置可以包括:第一图像构建模块1001、第二图像构建模块1002、融合模块1003和标注数据生成模块1004。其中,
第一图像构建模块1001,用于基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图。
第二图像构建模块1002,用于基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图;所述第二路段所在区域与所述第一路段所在区域重叠。
融合模块1003,用于基于所述第一图像构建模块1001得到的第一三维矢量地图和所述第二图像构建模块1002得到的第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图;所述第三路段所在区域覆盖所述第一路段所在区域和所述第二路段所在区域。
标注数据生成模块1004,用于基于所述融合模块1003得到的第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
在本公开另一示例性实施例中,所述标注数据的生成装置还可以包括第三图像构建模块,用于基于第三时刻拍摄第四路段得到的第三图像集,构建所述第四路段的第四三维矢量地图;所述第一路段所在区域和所述第二路段所在区域均与所述第四路段所在区域重叠。所述融合模块1003还可以用于:基于所述第一图像构建模块1001得到的第一三维矢量地图、所述第二图像构建模块1002得到的第二三维矢量地图和所述第三图像构建模块得到的第四三维矢量地图,聚类融合生成所述第三路段的所述第三三维矢量地图,其中,所述第三路段所在区域覆盖所述第四路段所在区域。
在本公开另一示例性实施例中,如图11所示,第一图像构建模块1001可以包括:
第一预处理单元10011,用于对所述第一图像集包含的每一帧第一图像进行语义分割处理,或者,进行语义分割处理和目标检测处理,得到各所述第一图像分别对应的第一预处理图像。
第一获取单元10012,用于获取各所述第一图像分别对应的第一相机位姿。
第一构建单元10013,用于基于所述第一预处理单元10011得到的各第一预处理图像和所述第一获取单元10012得到的各所述第一预处理图像分别对应的第一相机位姿,构建所述第一三维矢量地图。
在本公开另一示例性实施例中,如图11所示,第二图像构建模块1002可以包括:
第二预处理单元10021,用于对所述第二图像集包含的每一帧第二图像进行语义分割处理,或者,进行语义分割处理和目标检测处理,得到各所述第二图像分别对应的第二预处理图像。
第二获取单元10022,用于获取各所述第二图像分别对应的第二相机位姿。
第二构建单元10023,用于基于所述第二预处理单元10021得到的各第二预处理图像和所述第二获取单元10022得到的各所述第二预处理图像分别对应的第二相机位姿,构建所述第二三维矢量地图。
在本公开另一示例性实施例中,如图11所示,融合模块1003可以包括:
对齐单元10031,用于对齐所述第一图像构建模块1001得到的第一三维矢量地图和所述第二图像构建模块1002得到的第二三维矢量地图。
融合单元10032,用于基于所述对齐单元10031得到的对齐后的第一三维矢量地图和第二三维矢量地图,聚类融合生成所述第三三维矢量地图。
在本公开另一示例性实施例中,所述标注数据的生成装置还可以包括:
第一优化模块,用于基于对齐后的所述第一三维矢量地图,优化各所述第一相机位姿,得到各所述第一相机位姿分别对应的第一优化相机位姿。
第二优化模块,用于基于对齐后的所述第二三维矢量地图,优化各所述第二相机位姿,得到各所述第二相机位姿分别对应的第二优化相机位姿。
所述标注数据生成模块1004,还可以用于基于所述融合单元10032得到的第三三维矢量地图、所述第一优化模块得到的各第一优化相机位姿和所述第二优化模块得到的各第二优化相机位姿,生成所述第三路段中静态对象的标注数据。
在本公开另一示例性实施例中,如图11所示,所述标注数据生成模块1004可以包括:
第一生成单元10041,用于通过反投影的方式,基于所述融合单元10032得到的第三三维矢量地图、所述第一优化模块得到的各第一优化相机位姿和所述第二优化模块得到的各第二优化相机位姿,生成所述第三路段的二维图像。
第二生成单元10042,用于基于所述融合单元10032得到的第三三维矢量地图、所述第一优化模块得到的各第一优化相机位姿和所述第二优化模块得到的各第二优化相机位姿,生成所述第三路段的鸟瞰图。
第三生成单元10043,用于基于所述第一生成单元10041得到的二维图像生成所述第三路段中静态对象的二维标注数据。
第四生成单元10044,用于基于所述第二生成单元10042得到的鸟瞰图生成所述第三路段中静态对象的鸟瞰标注数据。
在本公开另一示例性实施例中,所述标注数据生成模块1004还可以包括:
第五生成单元,用于基于各所述第一图像和各所述第一图像分别对应的所述第一相机位姿,生成动态对象在所述第一时刻的第一三维标注框数据。
第六生成单元,用于基于各所述第二图像和各所述第二图像分别对应的所述第二相机位姿,生成所述动态对象在所述第二时刻的第二三维标注框数据。
第七生成单元,用于基于所述融合单元10032得到的第三三维矢量地图、所述第一优化模块得到的各第一优化相机位姿和所述第五生成单元得到的第一三维标注框数据,生成所述动态对象在所述第一时刻的标注数据。
第八生成单元,用于基于所述融合单元10032得到的第三三维矢量地图、所述第二优化模块得到的各第二优化相机位姿和所述第六生成单元得到的第二三维标注框数据,生成所述动态对象在所述第二时刻的标注数据。
在本公开另一示例性实施例中,所述第一图像集包括载具上的多相机系统从不同角度同时拍摄所述第一路段得到的多帧所述第一图像;所述第二图像集包括所述载具上的所述多相机系统从不同角度同时拍摄所述第二路段得到的多帧所述第二图像。
示例性电子设备
下面,参考图12来描述根据本公开实施例的电子设备。该电子设备可以是用于生成标注数据的终端设备,例如图1所示的终端设备100,用于生成标注数据的服务器中的任一个。或者,该电子设备也可以为与前述设备独立的单机设备,该单机设备可以与前述每一个设备进行通信,以从它们接收所采集到的输入信号。
图12图示了根据本公开实施例的电子设备的框图。
如图12所示,电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本公开的各个实施例的标注数据的生成方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,在该电子设备是用于生成标注数据的终端设备时,该输入装置13可以是上述终端设备的麦克风或麦克风阵列,用于捕捉声源的输入信号。在该电子设备是单机设备时,该输入装置13可以是通信网络连接器,用于从终端设备接收所采集的输入信号。
此外,该输入设备13还可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图12中仅示出了该电子设备10中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的标注数据的生成方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的标注数据的生成方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (12)

1.一种标注数据的生成方法,包括:
基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图;
基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图;所述第二路段所在区域与所述第一路段所在区域重叠;
基于所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图;所述第三路段所在区域覆盖所述第一路段所在区域和所述第二路段所在区域;
基于所述第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
2.根据权利要求1所述的方法,其中,所述方法还包括:
基于第三时刻拍摄第四路段得到的第三图像集,构建所述第四路段的第四三维矢量地图;所述第一路段所在区域和所述第二路段所在区域均与所述第四路段所在区域重叠;
所述基于所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图,包括:
基于所述第一三维矢量地图、所述第二三维矢量地图和所述第四三维矢量地图,聚类融合生成所述第三路段的所述第三三维矢量地图,其中,所述第三路段所在区域覆盖所述第四路段所在区域。
3.根据权利要求1所述的方法,其中,所述基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图,包括:
对所述第一图像集包含的每一帧第一图像进行语义分割处理,或者,进行语义分割处理和目标检测处理,得到各所述第一图像分别对应的第一预处理图像;
获取各所述第一图像分别对应的第一相机位姿;
基于各所述第一预处理图像和各所述第一预处理图像分别对应的所述第一相机位姿,构建所述第一三维矢量地图。
4.根据权利要求3所述的方法,其中,所述基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图,包括:
对所述第二图像集包含的每一帧第二图像进行语义分割处理,或者,进行语义分割处理和目标检测处理,得到各所述第二图像分别对应的第二预处理图像;
获取各所述第二图像分别对应的第二相机位姿;
基于各所述第二预处理图像和各所述第二预处理图像分别对应的所述第二相机位姿,构建所述第二三维矢量地图。
5.根据权利要求4所述的方法,其中,所述基于所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图,包括:
对齐所述第一三维矢量地图和所述第二三维矢量地图;
基于对齐后的所述第一三维矢量地图和所述第二三维矢量地图,聚类融合生成所述第三三维矢量地图。
6.根据权利要求5所述的方法,其中,在对齐所述第一三维矢量地图和所述第二三维矢量地图之后,所述方法还包括:
基于对齐后的所述第一三维矢量地图,优化各所述第一相机位姿,得到各所述第一相机位姿分别对应的第一优化相机位姿;
基于对齐后的所述第二三维矢量地图,优化各所述第二相机位姿,得到各所述第二相机位姿分别对应的第二优化相机位姿;
所述基于所述第三三维矢量地图,生成所述第三路段中静态对象的标注数据,包括:
基于所述第三三维矢量地图、各所述第一优化相机位姿和各所述第二优化相机位姿,生成所述第三路段中静态对象的标注数据。
7.根据权利要求6所述的方法,其中,所述基于所述第三三维矢量地图、各所述第一优化相机位姿和各所述第二优化相机位姿,生成所述第三路段中静态对象的标注数据,包括:
通过反投影的方式,基于所述第三三维矢量地图、各所述第一优化相机位姿和各所述第二优化相机位姿,生成所述第三路段的二维图像;
基于所述第三三维矢量地图、各所述第一优化相机位姿和各所述第二优化相机位姿,生成所述第三路段的鸟瞰图;
基于所述二维图像生成所述第三路段中静态对象的二维标注数据;
基于所述鸟瞰图生成所述第三路段中静态对象的鸟瞰标注数据。
8.根据权利要求6或7所述的方法,其中,所述方法还包括:
基于各所述第一图像和各所述第一图像分别对应的所述第一相机位姿,生成动态对象在所述第一时刻的第一三维标注框数据;
基于各所述第二图像和各所述第二图像分别对应的所述第二相机位姿,生成所述动态对象在所述第二时刻的第二三维标注框数据;
基于所述第三三维矢量地图、各所述第一优化相机位姿和所述第一三维标注框数据,生成所述动态对象在所述第一时刻的标注数据;
基于所述第三三维矢量地图、各所述第二优化相机位姿和所述第二三维标注框数据,生成所述动态对象在所述第二时刻的标注数据。
9.根据权利要求1至8中任意一项所述的方法,其中,所述第一图像集包括载具上的多相机系统从不同角度同时拍摄所述第一路段得到的多帧所述第一图像;所述第二图像集包括所述载具上的所述多相机系统从不同角度同时拍摄所述第二路段得到的多帧所述第二图像。
10.一种标注数据的生成装置,包括:
第一图像构建模块,用于基于第一时刻拍摄第一路段得到的第一图像集,构建所述第一路段的第一三维矢量地图;
第二图像构建模块,用于基于第二时刻拍摄第二路段得到的第二图像集,构建所述第二路段的第二三维矢量地图;所述第二路段所在区域与所述第一路段所在区域重叠;
融合模块,用于基于所述第一图像构建模块得到的第一三维矢量地图和所述第二图像构建模块得到的第二三维矢量地图,聚类融合生成第三路段的第三三维矢量地图;所述第三路段所在区域覆盖所述第一路段所在区域和所述第二路段所在区域;
标注数据生成模块,用于基于所述融合模块得到的第三三维矢量地图,生成所述第三路段中静态对象的标注数据。
11.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-9任一所述的标注数据的生成方法。
12.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-9任一所述的标注数据的生成方法。
CN202310012760.3A 2023-01-05 2023-01-05 一种标注数据的生成方法及装置 Pending CN116259035A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310012760.3A CN116259035A (zh) 2023-01-05 2023-01-05 一种标注数据的生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310012760.3A CN116259035A (zh) 2023-01-05 2023-01-05 一种标注数据的生成方法及装置

Publications (1)

Publication Number Publication Date
CN116259035A true CN116259035A (zh) 2023-06-13

Family

ID=86678567

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310012760.3A Pending CN116259035A (zh) 2023-01-05 2023-01-05 一种标注数据的生成方法及装置

Country Status (1)

Country Link
CN (1) CN116259035A (zh)

Similar Documents

Publication Publication Date Title
Maddern et al. 1 year, 1000 km: The oxford robotcar dataset
CN111626208A (zh) 用于检测小目标的方法和装置
CN111311675B (zh) 车辆定位方法、装置、设备和存储介质
CN108345838A (zh) 利用模拟图像训练自动交通灯检测模型
CN111582189A (zh) 交通信号灯识别方法、装置、车载控制终端及机动车
Sima et al. Drivelm: Driving with graph visual question answering
CN115240157B (zh) 道路场景数据持久化方法、装置、设备和计算机可读介质
CN114549369B (zh) 数据修复方法、装置、计算机及可读存储介质
CN114429528A (zh) 图像处理方法、装置、设备、计算机程序及存储介质
Florea et al. Enhanced perception for autonomous driving using semantic and geometric data fusion
CN115439637A (zh) 车载增强现实的渲染方法、系统、车辆及存储介质
Bai et al. A survey and framework of cooperative perception: From heterogeneous singleton to hierarchical cooperation
KR102206684B1 (ko) 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치
CN114550116A (zh) 一种对象识别方法和装置
CN111382695A (zh) 用于检测目标的边界点的方法和装置
CN111191607A (zh) 确定车辆的转向信息的方法、设备和存储介质
CN112765302B (zh) 位置信息的处理方法、装置及计算机可读介质
CN111401423B (zh) 用于自动驾驶车辆的数据处理方法和装置
Song et al. Collaborative Semantic Occupancy Prediction with Hybrid Feature Fusion in Connected Automated Vehicles
CN112241963A (zh) 基于车载视频的车道线识别方法、系统和电子设备
CN111210411B (zh) 图像中灭点的检测方法、检测模型训练方法和电子设备
CN117252947A (zh) 图像处理方法、装置、计算机、存储介质及程序产品
CN116452911A (zh) 目标检测模型训练方法及装置、目标检测方法及装置
CN116259035A (zh) 一种标注数据的生成方法及装置
Lobanov et al. Application of shared backbone DNNs in ADAS perception systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination