CN116205973A - 激光点云连续帧数据标注方法及系统 - Google Patents

激光点云连续帧数据标注方法及系统 Download PDF

Info

Publication number
CN116205973A
CN116205973A CN202310227784.0A CN202310227784A CN116205973A CN 116205973 A CN116205973 A CN 116205973A CN 202310227784 A CN202310227784 A CN 202310227784A CN 116205973 A CN116205973 A CN 116205973A
Authority
CN
China
Prior art keywords
point cloud
frame
labeling
pose information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310227784.0A
Other languages
English (en)
Inventor
廖文龙
董彦成
何弢
刘耀勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Kuyi Robot Co ltd
Kuwa Technology Co ltd
Original Assignee
Shanghai Kuyi Robot Co ltd
Kuwa Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Kuyi Robot Co ltd, Kuwa Technology Co ltd filed Critical Shanghai Kuyi Robot Co ltd
Priority to CN202310227784.0A priority Critical patent/CN116205973A/zh
Publication of CN116205973A publication Critical patent/CN116205973A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种激光点云连续帧数据标注方法及系统,包括:步骤S1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;步骤S2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;步骤S3:将待标注对象分为静态对象和动态对象进行标注。本发明解决了连续帧点云的标注问题,利用点云帧是连续的特点提升标注效率;提升了标注设备的运行效率问题,不需要额外的云端来执行算法提供预标注结果;同时解决了逐帧标注的效率低下问题,对静态标注对象可以实现,一次标注结果可以生效于200帧点云数据内。

Description

激光点云连续帧数据标注方法及系统
技术领域
本发明涉及自动驾驶技术领域,具体地,涉及一种激光点云连续帧数据标注方法及系统。
背景技术
在自动驾驶领域,感知模块是以多种传感器的数据,以及高精度地图的信息作为输入,经过一系列的计算及处理,对自动驾驶车的周围的环境精确感知。自动驾驶感知算法目前主流采用深度学习方法,需要用到大量的标注数据集来训练模型,所以能够更快更高效的生成大量的标注数据,是自动驾驶感知的关键。
目前,大多数标注数据都是人工标注的,包括2D图像、3D激光雷达点云数据等,这是一个非常缓慢而低效的过程。它需要人坐在计算机屏幕前操作标注工具,逐个标记它们,极度耗费人力。对于激光雷达产生的点云数据,由于其数据形态的复杂性和稀疏性,很容易标注错误或者漏标,甚至有可能给神经网络训练带来负面影响。
专利文献CN110264468A公开了一种点云数据标注、分割模型确定、目标检测方法及相关设备,该方法包括获取激光雷达采集的原始点云数据;将原始点云数据投影到二维图后,基于二维图获取各目标标注信息;通过已训练目标检测模型对原始点云数据进行检测,确定检测到的目标检测信息;基于对应的目标类别置信度,采用目标检测信息修正目标标注信息,获得原始点云数据的目标检测数据集,目标检测数据集包括各目标的位置信息和目标类别,采用本方法能够快速准确地进行标注。
但该发明仅考虑了对每一帧点云单独进行标注的方法,效率低下,人工成本高;并且标注的对象在相邻两帧之间缺少了相互关联的信息,不利于之后利用标注结果进行模型训练。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种激光点云连续帧数据标注方法及系统。
第一方面,本发明提供了一种激光点云连续帧数据标注方法,包括:
步骤S1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;
步骤S2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;
步骤S3:将待标注对象分为静态对象和动态对象进行标注。
优选地,在所述步骤S1中:
采集车采集点云数据时,预设激光雷达的输出频率,每次激光雷达输出点云数据后,同时记录点云位姿信息;
采集车上装备摄像头,拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像,将标注对象的对应的点绘制在图像上,辅助进行标注。
优选地,在所述步骤S2中:
针对单个任务包,将任务包内的第一帧点云的位姿信息作为基准,之后帧数的点云的位姿信息均调整为相对于第一帧点云的位姿信息的相对值;
点云的位姿信息用x、y、z、ax、ay和az表示,代表点云的位姿信息在世界坐标系中的x、y、z坐标位置,以及x、y、z方向上的朝向;x、y、z、ax、ay和az组成4x4的变换矩阵T,
Figure BDA0004119103170000021
表示激光雷达坐标系转换到世界坐标系的变换矩阵:
T=f(x,y,z,ax,ay,az)
优选地,在所述步骤S3中:
对任务包中所需标注的对象分为静态对象和动态对象,对于速度为0或与0差距在预设值以内的对象视为静态对象,其余视为动态对象。
优选地,在一个任务包内,一个静态对象能够存在在多帧点云中,在不同点云帧的同一个静态对象被投影至世界坐标系中,重合在同一位置;静态对象存在于m帧内,在第一帧中静态对象的位置和在第m帧中的位置,变换到世界坐标系下一致;将第一帧至第m帧的点云融合,利用点云的位姿信息对每一帧点云进行变换,都变换至第一帧点云坐标系下,然后对静态对象进行标注。
优选地,根据标注的需求,能够拆分融合后的点云,重新回到单帧标注中;在标注过程中,融合点云标注和拆分点云标注的动作任意进行,以及设置融合点云的数量。
第二方面,本发明提供了一种激光点云连续帧数据标注系统,包括:
模块M1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;
模块M2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;
模块M3:将待标注对象分为静态对象和动态对象进行标注。
优选地,在所述模块M1中:
采集车采集点云数据时,预设激光雷达的输出频率,每次激光雷达输出点云数据后,同时记录点云位姿信息;
采集车上装备摄像头,拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像,将标注对象的对应的点绘制在图像上,辅助进行标注。
优选地,在所述模块M2中:
针对单个任务包,将任务包内的第一帧点云的位姿信息作为基准,之后帧数的点云的位姿信息均调整为相对于第一帧点云的位姿信息的相对值;
点云的位姿信息用x、y、z、ax、ay和az表示,代表点云的位姿信息在世界坐标系中的x、y、z坐标位置,以及x、y、z方向上的朝向;x、y、z、ax、ay和az组成4x4
的变换矩阵T,
Figure BDA0004119103170000031
表示激光雷达坐标系转换到世界坐标系的变换矩阵:
T=f(x,y,z,ax,ay,az)。
优选地,在所述模块M3中:
对任务包中所需标注的对象分为静态对象和动态对象,对于速度为0或与0差距在预设值以内的对象视为静态对象,其余视为动态对象。
优选地,一个静态对象能够存在在多帧点云中,在不同点云帧的同一个静态对象被投影至世界坐标系中,重合在同一位置;静态对象存在于m帧内,在第一帧中静态对象的位置和在第m帧中的位置,变换到世界坐标系下一致;将第一帧至第m帧的点云融合,利用点云的位姿信息对每一帧点云进行变换,都变换至第一帧点云坐标系下,然后对静态对象进行标注。
优选地,根据标注的需求,能够拆分融合后的点云,重新回到单帧标注中;在标注过程中,融合点云标注和拆分点云标注的动作任意进行,以及设置融合点云的数量。
与现有技术相比,本发明具有如下的有益效果:
1、本发明解决了连续帧点云的标注问题,利用点云帧是连续的特点提升标注效率;
2、本发明解决了标注设备的运行效率问题,不需要额外的云端来执行算法提供预标注结果;
3、本发明解决了逐帧标注的效率低下问题,对静态标注对象可以实现,一次标注结果可以生效于200帧点云数据内;
4、本发明考虑连续点云帧的标注情况,目前市面上的激光雷达的频率在10hz,即一段20秒路程内会包含200帧的点云数据,若考虑200个连续点云帧的情况,对这200帧作为一个整体进行标注,则可以大大提升标注效率,减少标注成本,也能提高标注结果的可靠性,提高后续的模型训练效果;
5、本发明不强制依赖于云端和客户端分离的模式,若标注设备所处的网络环境较差,也不必担忧点云数据传输效率的问题;
6、本发明不依赖于深度学习算法进行目标检测或分类,不需要算法生成预标注文件,再让标注人员根据预标注结果进行修正;而是对连续帧内的静态对象进行融合标注,一次标注结果可以生效于200帧点云数据内,极大提高了标注效率,减少标注成本。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
实施例1:
根据本发明提供的一种激光点云连续帧数据标注方法,如图1所示,包括:
步骤S1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;
具体地,在所述步骤S1中:
采集车采集点云数据时,预设激光雷达的输出频率,每次激光雷达输出点云数据后,同时记录点云位姿信息;
采集车上装备摄像头,拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像,将标注对象的对应的点绘制在图像上,辅助进行标注。
步骤S2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;
具体地,在所述步骤S2中:
针对单个任务包,将任务包内的第一帧点云的位姿信息作为基准,之后帧数的点云的位姿信息均调整为相对于第一帧点云的位姿信息的相对值;
点云的位姿信息用x、y、z、ax、ay和az表示,代表点云的位姿信息在世界坐标系中的x、y、z坐标位置,以及x、y、z方向上的朝向;x、y、z、ax、ay和az组成4x4
的变换矩阵T,
Figure BDA0004119103170000051
表示激光雷达坐标系转换到世界坐标系的变换矩阵:
T=f(x,y,z,ax,ay,az)
步骤S3:将待标注对象分为静态对象和动态对象进行标注。
具体地,在所述步骤S3中:
对任务包中所需标注的对象分为静态对象和动态对象,对于速度为0或与0差距在预设值以内的对象视为静态对象,其余视为动态对象。
具体地,在一个任务包内,一个静态对象能够存在在多帧点云中,在不同点云帧的同一个静态对象被投影至世界坐标系中,重合在同一位置;静态对象存在于m帧内,在第一帧中静态对象的位置和在第m帧中的位置,变换到世界坐标系下一致;将第一帧至第m帧的点云融合,利用点云的位姿信息对每一帧点云进行变换,都变换至第一帧点云坐标系下,然后对静态对象进行标注。
具体地,根据标注的需求,能够拆分融合后的点云,重新回到单帧标注中;在标注过程中,融合点云标注和拆分点云标注的动作任意进行,以及设置融合点云的数量。
实施例2:
实施例2为实施例1的优选例,以更为具体地对本发明进行说明。
本发明还提供一种激光点云连续帧数据标注系统,所述激光点云连续帧数据标注系统可以通过执行所述激光点云连续帧数据标注方法的流程步骤予以实现,即本领域技术人员可以将所述激光点云连续帧数据标注方法理解为所述激光点云连续帧数据标注系统的优选实施方式。
根据本发明提供的一种激光点云连续帧数据标注系统,包括:
模块M1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;
具体地,在所述模块M1中:
采集车采集点云数据时,预设激光雷达的输出频率,每次激光雷达输出点云数据后,同时记录点云位姿信息;
采集车上装备摄像头,拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像,将标注对象的对应的点绘制在图像上,辅助进行标注。
模块M2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;
具体地,在所述模块M2中:
针对单个任务包,将任务包内的第一帧点云的位姿信息作为基准,之后帧数的点云的位姿信息均调整为相对于第一帧点云的位姿信息的相对值;
点云的位姿信息用x、y、z、ax、ay和az表示,代表点云的位姿信息在世界坐标系中的x、y、z坐标位置,以及x、y、z方向上的朝向;x、y、z、ax、ay和az组成4x4
的变换矩阵T,
Figure BDA0004119103170000061
表示激光雷达坐标系转换到世界坐标系的变换矩阵:
T=f(x,y,z,ax,ay,az)。
模块M3:将待标注对象分为静态对象和动态对象进行标注。
具体地,在所述模块M3中:
对任务包中所需标注的对象分为静态对象和动态对象,对于速度为0或与0差距在预设值以内的对象视为静态对象,其余视为动态对象。
具体地,一个静态对象能够存在在多帧点云中,在不同点云帧的同一个静态对象被投影至世界坐标系中,重合在同一位置;静态对象存在于m帧内,在第一帧中静态对象的位置和在第m帧中的位置,变换到世界坐标系下一致;将第一帧至第m帧的点云融合,利用点云的位姿信息对每一帧点云进行变换,都变换至第一帧点云坐标系下,然后对静态对象进行标注。
具体地,根据标注的需求,能够拆分融合后的点云,重新回到单帧标注中;在标注过程中,融合点云标注和拆分点云标注的动作任意进行,以及设置融合点云的数量。
实施例3:
实施例3为实施例1的优选例,以更为具体地对本发明进行说明。
目前,常用的标注方法为,由标注员对一个任务的点云数据进行标记,例如,在机器人操作系统(robotic operationsystem,ROS)中,将一个rosbag单位的路测环境的点云数据作为一个任务,由一个标注员来标注。
在采集点云数据时,激光雷达的输出频率为10Hz,每次激光雷达输出点云数据后,都会同时将采集车的当前坐标位置记录下来,即每一帧点云数据都与一个绝对世界坐标系下的位置匹配,以下简称为点云数据的位姿信息,点云的位姿信息表示激光坐标系坐标转换到世界坐标系下后的位置信息。与此同时,还有6个采集车上所装备的摄像头,会拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像。之后可以将标注对象的对应的点,绘制在图像上,辅助标注员进行标注,提高标注效率。
下文中将以一个rosbag长度为20s,点云的采集频率为10Hz,即一个任务包内包括了200帧连续点云数据帧为举例,来说明技术方案。
对每一个任务包,将任务包内的第一帧点云的位姿信息作为基准,后199帧的点云数据的位姿均调整为相对于第一帧点云位姿信息的相对值。
位姿信息可以用6个参数表示,分别是x、y、z、ax、ay、az,代表了位姿在所处世界坐标系中的x,y,z位置,以及x,y,z方向上的朝向。这6个参数可以组成一个4x4的变换矩阵T,
Figure BDA0004119103170000071
表示激光雷达坐标系转换到世界坐标系的变换矩阵,T=f(x,y,z,ax,ay,az),有了变换矩阵T之后,在此位姿下的点云中的点P,坐标为(px,py,pz),可以变换到世界坐标系中的位置点Pw,Pw=T*P,此式中点P和Pw均用1补足成为1x4的向量。
在标注员的使用的标注设备中,载入一个任务包,内含200帧点云数据。
在标注时,所需标注的对象可以分为静态对象和动态对象。对于速度为0或接近0的对象视为静态对象,其余的视为动态对象。
静态对象标注:在一个任务包内,因为一个静态对象可能会存在在多个点云数据中,在不同的点云中的同一个静态对象实例投影至世界坐标系中必然重合在同一位置处。举例来说,在一个任务包内,有一颗行道树存在于200帧内,在第一帧中树的位置和在第200帧中的位置,变换到世界坐标系下必为一致,此刻,可以将第一帧至第200帧的点云融合,利用上述的点云位姿信息对每一帧点云数据进行变换,都变换至第一帧点云坐标系下,然后同时显示在屏幕上,此时标注员对这个树进行标注,一次标注之后,200帧点云中,每一帧内的这个树的位置都被标记为了这个树的实例。
随后根据标注工作的需求,可以再此拆分融合后的点云,重新回到单帧标注的界面中。在标注过程中,融合点云标注和拆分点云的动作可以任意进行,此外融合点云的数量也可以由标注人员自行选定。
在当前的标注方案中,树木,栅栏,路障,水马,雪糕筒,车道,交通标志,地面标线,路牙,人行道等所需标注的静态对象的数量远大于所需标注的机动车,非机动车,行人等动态对象,静态对象的占比在50%~90%之间;
因此,对连续点云帧中的静态对象采用上述融合拆分的标注,倘若一个平均一个静态对象分布于100个点云数据中,则可以降低80%左右的标注次数。极大提升了标注效率。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (12)

1.一种激光点云连续帧数据标注方法,其特征在于,包括:
步骤S1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;
步骤S2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;
步骤S3:将待标注对象分为静态对象和动态对象进行标注。
2.根据权利要求1所述的激光点云连续帧数据标注方法,其特征在于,在所述步骤S1中:
采集车采集点云数据时,预设激光雷达的输出频率,每次激光雷达输出点云数据后,同时记录点云位姿信息;
采集车上装备摄像头,拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像,将标注对象的对应的点绘制在图像上,辅助进行标注。
3.根据权利要求1所述的激光点云连续帧数据标注方法,其特征在于,在所述步骤S2中:
针对单个任务包,将任务包内的第一帧点云的位姿信息作为基准,之后帧数的点云的位姿信息均调整为相对于第一帧点云的位姿信息的相对值;
点云的位姿信息用x、y、z、ax、ay和az表示,代表点云的位姿信息在世界坐标系中的x、y、z坐标位置,以及x、y、z方向上的朝向;x、y、z、ax、ay和az组成4x4的变换矩阵T,
Figure FDA0004119103110000011
表示激光雷达坐标系转换到世界坐标系的变换矩阵:
T=f(x,y,z,ax,ay,az)。
4.根据权利要求1所述的激光点云连续帧数据标注方法,其特征在于,在所述步骤S3中:
对任务包中所需标注的对象分为静态对象和动态对象,对于速度为0或与0差距在预设值以内的对象视为静态对象,其余视为动态对象。
5.根据权利要求4所述的激光点云连续帧数据标注方法,其特征在于,在一个任务包内,一个静态对象能够存在在多帧点云中,在不同点云帧的同一个静态对象被投影至世界坐标系中,重合在同一位置;静态对象存在于m帧内,在第一帧中静态对象的位置和在第m帧中的位置,变换到世界坐标系下一致;将第一帧至第m帧的点云融合,利用点云的位姿信息对每一帧点云进行变换,都变换至第一帧点云坐标系下,然后对静态对象进行标注。
6.根据权利要求4所述的激光点云连续帧数据标注方法,其特征在于,根据标注的需求,能够拆分融合后的点云,重新回到单帧标注中;在标注过程中,融合点云标注和拆分点云标注的动作任意进行,以及设置融合点云的数量。
7.一种激光点云连续帧数据标注系统,其特征在于,包括:
模块M1:采集点云数据,获取点云的位姿信息,并将点云数据按照预设帧分为多个任务包;
模块M2:针对单个任务包,将任务包内的第一帧点云的位姿信息进行调整;
模块M3:将待标注对象分为静态对象和动态对象进行标注。
8.根据权利要求7所述的激光点云连续帧数据标注系统,其特征在于,在所述模块M1中:
采集车采集点云数据时,预设激光雷达的输出频率,每次激光雷达输出点云数据后,同时记录点云位姿信息;
采集车上装备摄像头,拍摄采集车前方、后方、右前方、左前方、右后方和左后方六个方位的图像,将标注对象的对应的点绘制在图像上,辅助进行标注。
9.根据权利要求7所述的激光点云连续帧数据标注系统,其特征在于,在所述模块M2中:
针对单个任务包,将任务包内的第一帧点云的位姿信息作为基准,之后帧数的点云的位姿信息均调整为相对于第一帧点云的位姿信息的相对值;
点云的位姿信息用x、y、z、ax、ay和az表示,代表点云的位姿信息在世界坐标系中的x、y、z坐标位置,以及x、y、z方向上的朝向;x、y、z、ax、ay和az组成4x4
的变换矩阵T,
Figure FDA0004119103110000021
表示激光雷达坐标系转换到世界坐标系的变换矩阵:
T=f(x,y,z,ax,ay,az)。
10.根据权利要求7所述的激光点云连续帧数据标注系统,其特征在于,在所述模块M3中:
对任务包中所需标注的对象分为静态对象和动态对象,对于速度为0或与0差距在预设值以内的对象视为静态对象,其余视为动态对象。
11.根据权利要求10所述的激光点云连续帧数据标注系统,其特征在于,一个静态对象能够存在在多帧点云中,在不同点云帧的同一个静态对象被投影至世界坐标系中,重合在同一位置;静态对象存在于m帧内,在第一帧中静态对象的位置和在第m帧中的位置,变换到世界坐标系下一致;将第一帧至第m帧的点云融合,利用点云的位姿信息对每一帧点云进行变换,都变换至第一帧点云坐标系下,然后对静态对象进行标注。
12.根据权利要求11所述的激光点云连续帧数据标注系统,其特征在于,根据标注的需求,能够拆分融合后的点云,重新回到单帧标注中;在标注过程中,融合点云标注和拆分点云标注的动作任意进行,以及设置融合点云的数量。
CN202310227784.0A 2023-03-06 2023-03-06 激光点云连续帧数据标注方法及系统 Pending CN116205973A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310227784.0A CN116205973A (zh) 2023-03-06 2023-03-06 激光点云连续帧数据标注方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310227784.0A CN116205973A (zh) 2023-03-06 2023-03-06 激光点云连续帧数据标注方法及系统

Publications (1)

Publication Number Publication Date
CN116205973A true CN116205973A (zh) 2023-06-02

Family

ID=86512793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310227784.0A Pending CN116205973A (zh) 2023-03-06 2023-03-06 激光点云连续帧数据标注方法及系统

Country Status (1)

Country Link
CN (1) CN116205973A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721246A (zh) * 2023-07-14 2023-09-08 酷哇科技有限公司 连续帧点云快速标注方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721246A (zh) * 2023-07-14 2023-09-08 酷哇科技有限公司 连续帧点云快速标注方法及系统
CN116721246B (zh) * 2023-07-14 2024-03-19 酷哇科技有限公司 连续帧点云快速标注方法及系统

Similar Documents

Publication Publication Date Title
Behrendt et al. Unsupervised labeled lane markers using maps
CN109583415B (zh) 一种基于激光雷达与摄像机融合的交通灯检测与识别方法
EP3392798A1 (en) A method for the semantic segmentation of an image
CN105844624A (zh) 动态标定系统、动态标定系统中的联合优化方法及装置
US11836884B2 (en) Real-time generation of functional road maps
CN107784038B (zh) 一种传感器数据的标注方法
CN111967313B (zh) 一种深度学习目标检测算法辅助的无人机图像标注方法
CN113096003B (zh) 针对多视频帧的标注方法、装置、设备和存储介质
CN109919007B (zh) 一种生成红外图像标注信息的方法
CN112258574A (zh) 标注位姿信息的方法、装置及计算机可读存储介质
Liu et al. Deep representation learning for road detection using Siamese network
CN112348885A (zh) 视觉特征库的构建方法、视觉定位方法、装置和存储介质
CN116529784A (zh) 用于增加激光雷达数据的方法和系统
CN116205973A (zh) 激光点云连续帧数据标注方法及系统
CN116071747A (zh) 一种基于3d点云数据和2d图像数据融合匹配语义分割方法
CN115830399A (zh) 分类模型训练方法、装置、设备、存储介质和程序产品
Jurado-Rodríguez et al. Semantic segmentation of 3D car parts using UAV-based images
CN114549542A (zh) 视觉语义分割方法、装置及设备
CN110827340B (zh) 地图的更新方法、装置及存储介质
CN115131407B (zh) 面向数字仿真环境的机器人目标跟踪方法、装置和设备
CN116468796A (zh) 生成来自鸟瞰视角的表示的方法、车辆对象识别系统及存储介质
Sheri et al. Object detection and classification for self-driving cars
US20210329219A1 (en) Transfer of additional information among camera systems
CN113870412A (zh) 一种航空场景图像的处理方法、装置以及电子设备
CN110889378A (zh) 一种多视图融合交通标志检测识别方法及其系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination