CN112381873A - 一种数据标注方法及装置 - Google Patents
一种数据标注方法及装置 Download PDFInfo
- Publication number
- CN112381873A CN112381873A CN202011148325.6A CN202011148325A CN112381873A CN 112381873 A CN112381873 A CN 112381873A CN 202011148325 A CN202011148325 A CN 202011148325A CN 112381873 A CN112381873 A CN 112381873A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- preset type
- parameter value
- data
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002372 labelling Methods 0.000 title abstract description 7
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000013507 mapping Methods 0.000 claims abstract description 31
- 230000001360 synchronised effect Effects 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 25
- 238000004891 communication Methods 0.000 claims description 19
- 238000003062 neural network model Methods 0.000 claims description 16
- 239000007787 solid Substances 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 14
- 238000013480 data collection Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明实施例提供了一种数据标注方法及装置,上述方法包括:获得数据采集场景中激光雷达采集的点云数据;基于点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息,其中,雷达坐标系为:基于激光雷达的内参预先构建的坐标系;基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息,获得对象在图像坐标系中的第二位置信息,其中,图像坐标系为:基于数据采集场景中图像采集设备的内参预先构建的坐标系,图像采集设备与激光雷达的采集时钟同步、在数据采集场景中的采集区域相同;基于第二位置信息,对图像采集设备所采集图像中对象所在的区域进行标注。应用本发明实施例提供的方案进行数据标注时,能够提高数据标注的效率。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种数据标注方法及装置。
背景技术
在视频监控、图像处理等应用场景中,往往需要基于图像中的人、车辆、建筑物等对象实现各种应用。另外,由于近年来人工智能技术得到了快速发展,上述各种应用通常基于神经网络模型实现。神经网络模型可以确定图像中对象所在区域,从而可以识别图像中的对象,并基于识别出的对象实现各种应用。在使用神经网络模型之前需要先采用大量样本图像进行模型训练。为此,需要对大量样本图像进行数据标注,以标注出图像中对象所在区域,从而使得训练后的神经网络模型能够准确识别出对象所在区域。
现有技术中,在进行数据标注时,一般由工作人员确定图像中对象所在区域,并手动对图像中对象所在区域进行标注。然而,工作人员手动进行数据标注效率一般较低,尤其是要进行数据标注的图像较多时,效率低的情况更加严重。
发明内容
本发明实施例的目的在于提供一种数据标注方法及装置,以提高数据标注的效率。具体技术方案如下:
第一方面,本发明实施例提供了一种数据标注方法,所述方法包括:
获得数据采集场景中激光雷达采集的点云数据;
基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,其中,所述雷达坐标系为:基于所述激光雷达的内参预先构建的坐标系;
基于所述雷达坐标系与图像坐标系之间的映射关系和所述第一位置信息,获得所述对象在所述图像坐标系中的第二位置信息,其中,所述图像坐标系为:基于所述数据采集场景中图像采集设备的内参预先构建的坐标系,所述图像采集设备与激光雷达的采集时钟同步、在所述数据采集场景中的采集区域相同;
基于所述第二位置信息,对所述图像采集设备所采集图像中所述对象所在的区域进行标注。
本发明的一个实施例中,上述基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,包括:
对所述点云数据进行聚类,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第一参数值;
将所述点云数据输入至预先训练的参数值获得模型,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值,所述参数值获得模型为:对预设的神经网络模型进行训练得到的、用于获得包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值的模型,对所述预设的神经网络模型进行训练时,以样本点云数据作为训练样本,以包含样本数据采集场景中对象的预设类型立体形状的预设类型参数项的真实参数值为训练基准进行训练;
将所述第一参数值和所述第二参数值进行数据融合,得到第三参数值;
根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,作为所述数据采集场景中对象在雷达坐标系中的第一位置信息。
本发明的一个实施例中,上述预设类型参数项包括:所述预设类型立体形状的中心点位置、所述预设类型立体形状的尺寸以及所述预设类型立体形状所包含对象的偏转角度,其中,所述偏转角度为:所述预设类型立体形状所包含对象的运动方向与所述雷达坐标系的横轴所指示方向之间的夹角。
本发明的一个实施例中,上述预设类型立体形状为:长方体,
所述根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,包括:
根据所述第三参数值,计算所述长方体在所述雷达坐标系中的各个顶点的坐标值,作为所述预设类型立体形状在所述雷达坐标系中的形状参数。
本发明的一个实施例中,上述激光雷达为:高线束激光雷达。
第二方面,本发明实施例提供了一种数据标注装置,上述装置包括:
点云数据获得模块,用于获得数据采集场景中激光雷达采集的点云数据;
第一信息确定模块,用于基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,其中,所述雷达坐标系为:基于所述激光雷达的内参预先构建的坐标系;
第二信息确定模块,用于基于所述雷达坐标系与图像坐标系之间的映射关系和所述第一位置信息,获得所述对象在所述图像坐标系中的第二位置信息,其中,所述图像坐标系为:基于所述数据采集场景中图像采集设备的内参预先构建的坐标系,所述图像采集设备与激光雷达的采集时钟同步、在所述数据采集场景中的采集区域相同;
数据标注模块,用于基于所述第二位置信息,对所述图像采集设备所采集图像中所述对象所在的区域进行标注。
本发明的一个实施例中,上述第一信息确定模块,包括:
第一参数值得到模块,用于对所述点云数据进行聚类,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第一参数值;
第二参数值得到模块,用于将所述点云数据输入至预先训练的参数值获得模型,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值,所述参数值获得模型为:对预设的神经网络模型进行训练得到的、用于获得包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值的模型,对所述预设的神经网络模型进行训练时,是以样本点云数据作为训练样本,以包含样本数据采集场景中对象的预设类型立体形状的预设类型参数项的真实参数值为训练基准进行训练;
第三参数值得到模块,用于将所述第一参数值和所述第二参数值进行数据融合,得到第三参数值;
形状参数获得子模块,用于根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,作为所述数据采集场景中对象在雷达坐标系中的第一位置信息。
本发明的一个实施例中,上述预设类型参数项包括所述预设类型立体形状的中心点位置、所述预设类型立体形状的尺寸以及所述预设类型立体形状所包含对象的偏转角度,其中,所述偏转角度为:所述预设类型立体形状所包含对象的运动方向与所述雷达坐标系的横轴所指示方向之间的夹角。
本发明的一个实施例中,上述预设类型立体形状为:长方体,
所述形状参数获得子模块,具体用于根据所述第三参数值,计算所述长方体在所述雷达坐标系中的各个顶点的坐标值,作为所述预设类型立体形状在所述雷达坐标系中的形状参数。
本发明的一个实施例中,上述激光雷达为:高线束激光雷达。
第三方面,本发明实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面所述的方法步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法步骤。
由以上可见,应用本发明实施例提供的方案进行数据标注时,由于是基于数据采集场景中激光雷达采集的点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息,并通过雷达坐标系与图像坐标系之间的映射关系,得到对象在图像坐标系中的第二位置信息,从而基于上述第二位置信息,对图像采集设备所采集图像中对象所在的区域进行标注。相较于现有技术,由于不需要工作人员手动对图像中对象所在区域进行标注,因此,提高了数据标注效率。
另外,由于第一位置信息为基于激光雷达所采集的点云数据所确定的,且基于激光雷达采集的点云数据所确定的位置信息能够较为准确地反映对象在雷达坐标系中的位置。因此,基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息能够更加准确地获得上述对象在图像坐标系中的第二位置信息,从而提高了数据标注的准确率。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种数据标注方法的流程示意图;
图2为本发明实施例提供的一种对象框的示意图;
图3为本发明实施例提供的一种表示映射关系的示意图;
图4为本发明实施例提供的一种图像采集设备所采集图像的示意图;
图5为本发明实施例提供的一种数据标注的示意图;
图6为本发明实施例提供的一种点云数据簇的示意图;
图7为本发明实施例提供的一种数据标注装置的结构示意图;
图8为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
首先,对本发明实施例的执行主体进行说明:本发明实施例的执行主体可以是服务器,这种情况下,该服务器能够获得数据采集场景中的激光雷达和图像采集设备采集的数据,另外,上述执行主体还可以是数据采集场景中的图像采集设备,这种情况下,图像采集设备能够获得数据采集场景中激光雷达采集的数据。
参见图1,图1为本发明实施例提供的一种数据标注方法的流程示意图,上述方法包括S101-S104。
S101:获得数据采集场景中激光雷达采集的点云数据。
上述数据采集场景可以为室外场景、室内场景。更为具体的,上述数据采集场景可以为车辆驾驶场景、工作场所场景等。
上述激光雷达可以架设在数据采集场景中的安装杆上,也可以安装在移动数据采集设备上,例如,上述激光雷达可以安装在自动驾驶车辆上。
本发明的一个实施例中,上述激光雷达可以为高线束激光雷达。采用高线束激光雷达采集点云数据时,能够使得所采集的点云数据更加精确。
数据采集场景中激光雷达在发射激光后,发射激光接触到数据采集场景中对象会发生反射,激光雷达在接收到反射激光后,可以基于发射激光的发射时间、反射激光的到达时间、激光雷达所处位置等信息,确定表示数据采集场景中对象位置的空间位置信息,从而将表示数据采集场景中各个对象位置的空间位置信息组成点云数据。
具体的,在获得数据采集场景中激光雷达采集的点云数据时,可以是按照预设时间间隔获得激光雷达采集的点云数据。例如:假设预设时间间隔为1s,每1s从上述数据采集场景中激光雷达获得其所采集的点云数据。
S102:基于点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息。
上述雷达坐标系为:基于数据采集场景中激光雷达的内参预先构建的坐标系。具体的,可以基于激光雷达所处位置作为雷达坐标系原点,基于激光雷达的内参确定雷达坐标系的x轴、y轴和z轴。在构建上述雷达坐标系时,可以采用现有技术中任意一种构建坐标系方式,在此不进行详述。上述激光雷达的内参可以是预先进行标定的。
上述数据采集场景中对象在雷达坐标系中的第一位置信息用于反映上述对象在雷达坐标系中的位置。具体的,上述第一位置信息可以用三维坐标值表示。
一种实施方式中,在确定上述第一位置信息时,可以基于上述点云数据,确定数据采集场景中对象所在区域,并计算上述对象所在区域在雷达坐标系中的位置信息,将上述位置信息作为第一位置信息。
具体的,在计算上述对象所在区域在雷达坐标系中的位置信息时,可以根据上述点云数据中的深度信息,确定数据采集场景中对象所在区域,并根据点云数据中的空间位置信息,确定上述对象所在区域的位置信息。更为具体的,当各个点云数据中的深度信息之间的差异小于预设差异阈值时,可以认为上述点云数据为同一对象所在区域的点云数据,从而根据所确定的点云数据中的空间位置信息,能够得到对象所在区域的位置信息。
当上述对象所在区域为三维立体形状时,可以将上述三维立体形状所形成的框称为对象框。
例如:以图2为例,图2为本发明实施例提供的一种对象框的示意图。图2所在的数据采集场景为:车辆行驶场景;各个长方体为车辆行驶场景中各个车辆所在区域;各个长方体所形成的框为车辆行驶场景中对象框。各个长方体在雷达坐标系中的位置信息可以作为上述车辆行驶场景中各个车辆在雷达坐标系中的第一位置信息。
S103:基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息,获得对象在图像坐标系中的第二位置信息。
上述图像坐标系为:基于数据采集场景中图像采集设备的内参预先构建的坐标系。具体的,可以将图像采集设备所采集图像的中心点作为图像坐标系的原点,基于图像采集设备的内参确定图像坐标系的x轴、y轴。具体构建图像坐标系的方式可以参见现有技术中任意一种构建图像坐标系的方式,在此不进行详述。上述图像采集设备的内参可以是预先进行内参标定的。
上述图像采集设备与激光雷达的采集时钟同步、在数据采集场景中的采集区域相同。
上述图像采集设备与激光雷达的采集时钟同步可以理解为;图像采集设备采集图像与激光雷达采集点云数据是同步进行的。
上述图像采集设备与激光雷达的采集区域相同可以理解为;图像采集设备与激光雷达是基于同一采集区域进行采集的。
上述雷达坐标系与图像坐标系之间的映射关系可以是预先进行确定的。具体的,可以由工作人员对图像坐标系和雷达坐标系进行相互标定,确定数据采集场景中激光雷达相对于图像采集设备的外参,基于上述外参确定雷达坐标系与图像坐标系之间的映射关系。
在获得对象在图像坐标系中的第二位置信息时,由于第一位置信息为对象在雷达坐标系中的位置信息,因此,可以基于雷达坐标系与图像坐标系之间的映射关系,将上述第一位置信息映射为对象在图像坐标系中的位置信息,从而得到第二位置信息。
具体的,参见图3,图3为本发明实施例提供的一种表示映射关系的示意图。在图3中,XeYeZe表示雷达坐标系,UV表示图像坐标系,假设P点在雷达坐标系中第一位置信息为(X,Y,Z),通过图3所表示的雷达坐标系与图像坐标系之间的映射关系,可以得到点P在图像坐标系中的映射点为P’,且P’的第二位置信息为(u,v)。
本发明的一个实施例中,还可以按照以下公式计算上述第二位置信息。
其中,所述表示对象在图像坐标系中的第二位置信息,s为缩放因子,如:s可以为1,u表示对象在图像坐标系中的横轴坐标,v表示对象在图像坐标系中的纵轴坐标,表示数据采集场景中图像采集设备的内参,fx、fy表示数据采集场景中图像采集设备的焦距,cx、cy表示数据采集场景中图像采集设备的主点坐标,表示雷达坐标系相对于图像坐标系的外参,其中,表示雷达坐标系与图像坐标系之间的旋转矩阵,表示雷达坐标系与图像坐标系之间的平移矩阵,表示雷达坐标系的点坐标。
S104:基于第二位置信息,对图像采集设备所采集图像中对象所在的区域进行标注。
由于上述第二位置信息用于表示数据采集场景中对象在图像坐标系中的位置,因此,在对图像采集设备所采集图像中对象所在的区域进行标注时,可以基于上述第二位置信息确定图像采集设备所采集图像中对象所在的区域。
在进行标注时,一种实施方式中,可以基于第二位置信息,记录并存储图像采集设备所采集图像中对象所在区域的位置信息。
例如:以图4为例,图4为本发明实施例提供的一种图像采集设备所采集图像的示意图。图4中图像的图像坐标系为:以图像中点为原点,水平方向为x轴所在方向,竖直方向为y轴所在方向。假设第二位置信息为:(1,1)、(2,1)、(1,2)、(2,2)、(1.5,2.5)、(2.5,2.5)、(1.5,1.5)、(2.5,1.5),图4中虚线为基于上述第二位置信息所确定的对象区域。在对图像中对象所在区域进行标记时,根据上述第二位置信息,记录并存储上述对象所在区域的各个顶点的位置信息。
另一种实施方式中,由于上述第二位置信息是基于第一位置信息和映射关系得到的,且第一位置信息是数据采集场景中对象在雷达坐标系中的位置信息,又由于对象在雷达坐标系中的位置信息可以是以包含对象的三维立体对象框的位置信息表示。因此,在进行标注时,还可以是基于第二位置信息,确定图像采集设备所采集图像中包含对象的三维立体对象框,并在图像中对上述三维立体对象框的位置信息进行标识。
以图5为例,图5为本发明实施例提供的一种数据标注的示意图。图5为车辆行驶场景,在图5中包含每个车辆的三维立体对象框所在区域为各个车辆所在区域,每个三维立体对象框旁的坐标信息(30,30)、(60,30)、(25,20)、(55,40)、(30,10)、(60,10)、(25,15)、(55,15)为包含车辆的三维立体对象框的各个顶点的位置信息。
由以上可见,应用本实施例提供的方案进行数据标注时,由于是基于数据采集场景中激光雷达采集的点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息,并通过雷达坐标系与图像坐标系之间的映射关系,得到对象在图像坐标系中的第二位置信息,从而基于上述第二位置信息,对图像采集设备所采集图像中对象所在的区域进行标注。相较于现有技术,由于不需要工作人员手动对图像中对象所在区域进行标注,因此,提高了数据标注效率。
另外,由于第一位置信息为基于激光雷达所采集的点云数据所确定的,且基于激光雷达采集的点云数据所确定的位置信息能够较为准确地反映对象在雷达坐标系中的位置。因此,基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息能够更加准确地获得上述对象在图像坐标系中的第二位置信息,从而提高了数据标注的准确率。
本发明的一个实施例中,还可以按照以下步骤A1-步骤A4实现上述S102中基于点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息。
步骤A1:对点云数据进行聚类,得到包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第一参数值。
上述预设类型立体形状可以由工作人员根据经验设定的,例如:上述预设类型立体形状可以为圆柱体、球体等。本发明的一个实施例中,上述预设类型立体形状可以为长方体。
上述预设类型参数项的第一参数值用于表示数据采集场景中对象位置的信息。具体的,上述预设类型参数项可以由工作人员根据经验设定。
本发明的一个实施例中,上述预设类型参数项可以包括预设类型立体形状的中心点位置、预设类型立体形状的尺寸以及预设类型立体形状所包含对象的偏转角度。
上述预偏转角度为:上述预设类型立体形状所包含对象的运动方向与雷达坐标系的横轴所指示方向之间的夹角。
具体的,当激光雷达为搭载在移动数据采集车辆中时,上述雷达坐标系的横轴所指示方向为:上述移动数据采集车辆的运动方向。当激光雷达为安装在数据采集场景中安装杆时,上述雷达坐标系的横轴所指示方向可以为预设的横轴所指示方向。
例如:当预设类型立体形状为圆柱体时,上述预设类型参数项可以为圆柱体的中心点位置、圆柱体的高和底面圆的半径、圆柱体所包含对象的偏转角度。当预设类型立体形状为球体时,上述预设类型参数项可以为球体的中心点位置、球体的半径、球体所包含对象的偏转角度。当预设类型立体形状为长方体时,上述预设类型参数项可以为长方体的中心点位置、长方体的长、宽和高、长方体所包含对象的偏转角度。
具体的,在对点云数据进行聚类时,可以根据点云数据反映的各个数据采集点的位置信息以及深度信息,将属于同一对象的各个数据采集点对应的点云数据形成一个点云数据簇。
以图6为例,图6为本发明实施例提供的一种点云数据簇的示意图。在图6中坐标系为激光雷达坐标系,各个矩形框表示各个点云数据簇,矩形框内的各个点为:点云数据簇中的各个点云数据所对应的数据采集点。
具体的,在得到上述第一参数值时,可以根据点云数据簇中的点云数据在雷达坐标系中的坐标值,确定数据采集场景中对象的最小外接预设类型立体形状,通过所确定的最小外接预设类型立体形状以及上述坐标值,可以计算预设类型立体形状的预设类型参数项的第一参数值。
例如:假设预设类型立体形状为长方体,预设类型参数项包括长方体的中心点位置、长方体的尺寸以及长方体所包含对象的偏转角度。根据点云数据簇中的点云数据在雷达坐标系中的坐标值,可以确定包含对象的最小长方体的中心点位置为(x,y,z),包含对象的最小长方体的尺寸为:长为l、宽为w、高为h,上述长方体所包含对象的偏转角度为θ,计算得到的上述各个参数值为包含数据采集场景中对象的长方体的预设类型参数项的第一参数值。
步骤A2:将点云数据输入至预先训练的参数值获得模型,得到包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值。
上述参数值获得模型为:对预设的神经网络模型进行训练得到的、用于获得包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值的模型。
在对上述预设的神经网络模型进行训练时,是以样本点云数据作为训练样本,以包含样本数据采集场景中对象的预设类型立体形状的预设类型参数项的实际参数值为训练基准进行训练的。
步骤A3:将第一参数值和第二参数值进行数据融合,得到第三参数值。
具体的,在进行数据融合时,可以按照第一参数值对应的权重与第二参数值对应的权重进行加权求和,计算得到第三参数值。
例如:假设第一参数值为A1、第二参数值为A2,第一参数值对应的权重为X、第二参数值对应的权重为Y,计算得到第三参数值为:A1*X+A2*Y。
当数据采集场景中对象处于移动的状态的情况下,本发明的一个实施例中,在得到上述第三参数值时,还可以对数据采集场景中对象进行追踪,获得追踪的每一时间节点中激光雷达采集的点云数据,基于上述各个点云数据可以计算每一时间节点的第一参数值和第二参数值,将上述各个第一参数值和第二参数值进行数据融合,得到第三参数值。
例如:假设在第一个时间节点基于所获得的点云数据计算得到第一参数值为B1、第二参数值为B2,在第二个时间节点基于所获得的点云数据计算得到第一参数值为C1、第二参数值为C2,在第三个时间节点基于所获得的点云数据计算得到第一参数值为D1、第二参数值为D2,假设第一参数值对应的权重为P、第二参数值对应的权重为Q,那么第三参数值可以为:[(B1*P+B2*Q)+(C1*P+C2*Q)+(D1*P+D2*Q)]/3。
步骤A4:根据第三参数值,获得预设类型立体形状在雷达坐标系中的形状参数,作为数据采集场景中对象在雷达坐标系中的第一位置信息。
上述形状参数用于反映上述预设类型立体形状的形状。例如:当预设类型立体形状为圆柱体时,上述形状参数可以为圆柱体的各个顶点的坐标。
具体的,可以根据预设类型立体形状在雷达坐标系中的形状参数与第三参数值之间的位置相对关系,计算得到预设类型立体形状在雷达坐标系中的形状参数。上述位置相对关系可以为三角函数关系。
本发明的一个实施例中,上述预设类型立体形状可以为长方体。基于此,本发明的一个实施例中,可以根据第三参数值,计算长方体在雷达坐标系中的各个顶点的坐标值,作为预设类型立体形状在雷达坐标系中的形状参数。
具体的,由于上述第三参数值可以表示包含数据采集场景中对象的长方体的位置信息,因此,可以根据长方体的各个顶点的位置与各个预设类型参数项的第三参数值之间的位置相对关系,得到长方体在雷达坐标系中的各个顶点的坐标值。
例如:假设预设类型立体形状为:长方体,计算得到的第三参数值为:长方体的中心点位置为(1,1,1),长方体的尺寸为:长为2、宽为2、高为2,单位为m,长方体所包含对象的偏转角度为90度,由于当偏转角度为90度时,可以表示包含对象的长方体的长与雷达坐标系的x轴平行、宽与雷达坐标系的y轴平行、高与雷达坐标系的z轴平行,从而可以确定长方体的各个顶点的坐标值分别为:(0,0,0)、(1,0,0)、(0,1,0)、(1,1,0)、(0,0,1)、(1,0,1)、(0,1,1)、(1,1,1)。
这样,由于第三参数值为将第一参数值和第二参数值进行数据融合得到的,且上述第一参数值为经过聚类后得到的、第二参数值为基于参数值获得模型得到的,因此,将上述第一参数值和第二参数值进行数据融合后得到能够得到较为准确地包含数据采集场景中对象的预设类型立体形状的预设类型参数项的参数值,从而,利用上述第三参数值能够更为准确地确定对象在雷达坐标系中的第一位置信息。
当上述激光雷达安装在移动数据采集车辆上时,本发明的一个实施例中,可以按照以下方式实现上述S103中基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息,获得对象在图像坐标系中的第二位置信息。
基于雷达坐标系与车辆坐标系之间的映射关系和第一位置信息,得到数据采集场景中对象在车辆坐标系中的第三位置信息;基于车辆坐标系与图像坐标系之间的映射关系和第三位置信息,获得对象在图像坐标系中的第二位置信息。
上述车辆坐标系是指以移动数据采集车辆的质心为原点,以平行于地面且指向车辆前方为x轴所在方向,以驾驶员的左侧方向为y轴所在方向,以质心向上方向为z轴所在方向构建的车辆坐标系。
具体的,上述雷达坐标系与车辆坐标系之间的映射关系可以是预先进行确定的。例如:可以由工作人员对车辆坐标系和雷达坐标系进行相互标定,确定数据采集场景中激光雷达相对于移动数据采集车辆的外参,基于上述外参确定雷达坐标系与车辆坐标系之间的映射关系。
上述车辆坐标系与图像坐标系之间的映射关系也可以是预先进行确定的。例如:可以由工作人员对车辆坐标系和图像坐标系进行相互标定,确定数据采集场景中图像采集设备相对于移动数据采集车辆的外参,基于上述外参确定车辆坐标系与图像坐标系之间的映射关系。
由于上述第三位置信息为数据采集场景中对象在车辆坐标系中的位置信息,而车辆坐标系是以移动数据采集车辆的质心为原点、以平行于地面且指向车辆前方为x轴所在方向、以驾驶员的左侧方向为y轴所在方向、以质心向上方向为z轴所在方向构建的车辆坐标系。因此,基于所获得的各个对象的第三位置信息能够较为准确地确定各个对象相对于移动数据采集车辆之间的相对位置。
在获得对象在图像坐标系中的第二位置信息时,由于第三位置信息为对象在车辆坐标系中的位置信息,因此,可以基于车辆坐标系与图像坐标系之间的映射关系,将上述第三位置信息映射为对象在图像坐标系中的位置信息,从而得到第二位置信息。
与上述数据标注方法相对应,本发明实施例还提供了一种数据标注装置。
参见图7,图7为本发明实施例提供的一种数据标注装置的结构示意图,上述装置包括701-704。
点云数据获得模块701,用于获得数据采集场景中激光雷达采集的点云数据;
第一信息确定模块702,用于基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,其中,所述雷达坐标系为:基于所述激光雷达的内参预先构建的坐标系;
第二信息确定模块703,用于基于所述雷达坐标系与图像坐标系之间的映射关系和所述第一位置信息,获得所述对象在所述图像坐标系中的第二位置信息,其中,所述图像坐标系为:基于所述数据采集场景中图像采集设备的内参预先构建的坐标系,所述图像采集设备与激光雷达的采集时钟同步、在所述数据采集场景中的采集区域相同;
数据标注模块704,用于基于所述第二位置信息,对所述图像采集设备所采集图像中所述对象所在的区域进行标注。
由以上可见,应用本实施例提供的方案进行数据标注时,由于是基于数据采集场景中激光雷达采集的点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息,并通过雷达坐标系与图像坐标系之间的映射关系,得到对象在图像坐标系中的第二位置信息,从而基于上述第二位置信息,对图像采集设备所采集图像中对象所在的区域进行标注。相较于现有技术,由于不需要工作人员手动对图像中对象所在区域进行标注,因此,提高了数据标注效率。
另外,由于第一位置信息为基于激光雷达所采集的点云数据所确定的,且基于激光雷达采集的点云数据所确定的位置信息能够较为准确地反映对象在雷达坐标系中的位置。因此,基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息能够更加准确地获得上述对象在图像坐标系中的第二位置信息,从而提高了数据标注的准确率。
本发明的一个实施例中,上述第一信息确定模块702,包括:
第一参数值得到模块,用于对所述点云数据进行聚类,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第一参数值;
第二参数值得到模块,用于将所述点云数据输入至预先训练的参数值获得模型,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值,所述参数值获得模型为:对预设的神经网络模型进行训练得到的、用于获得包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值的模型,对所述预设的神经网络模型进行训练时,是以样本点云数据作为训练样本,以包含样本数据采集场景中对象的预设类型立体形状的预设类型参数项的真实参数值为训练基准进行训练;
第三参数值得到模块,用于将所述第一参数值和所述第二参数值进行数据融合,得到第三参数值;
形状参数获得子模块,用于根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,作为所述数据采集场景中对象在雷达坐标系中的第一位置信息。
这样,由于第三参数值为将第一参数值和第二参数值进行数据融合得到的,且上述第一参数值为经过聚类后得到的、第二参数值为基于参数值获得模型得到的,因此,将上述第一参数值和第二参数值进行数据融合后得到能够得到较为准确地包含数据采集场景中对象的预设类型立体形状的预设类型参数项的参数值,从而,利用上述第三参数值能够更为准确地确定对象在雷达坐标系中的第一位置信息。
本发明的一个实施例中,上述预设类型参数项包括所述预设类型立体形状的中心点位置、所述预设类型立体形状的尺寸以及所述预设类型立体形状所包含对象的偏转角度,其中,所述偏转角度为:所述预设类型立体形状所包含对象的运动方向与所述雷达坐标系的横轴所指示方向之间的夹角。
本发明的一个实施例中,上述预设类型立体形状为:长方体,
上述形状参数获得子模块,具体用于根据所述第三参数值,计算所述长方体在所述雷达坐标系中的各个顶点的坐标值,作为所述预设类型立体形状在所述雷达坐标系中的形状参数。
本发明的一个实施例中,上述激光雷达为:高线束激光雷达。采用高线束激光雷达采集点云数据时,能够使得所采集的点云数据更加精确。
与上述数据标注方法相对应,本发明实施例还提供了一种电子设备。
参见图8,图8为本发明实施例提供的一种电子设备的结构示意图,包括处理器801、通信接口802、存储器803和通信总线804,其中,处理器801,通信接口802,存储器803通过通信总线804完成相互间的通信,
存储器803,用于存放计算机程序;
处理器801,用于执行存储器803上所存放的程序时,实现本发明实施例提供的数据标注方法。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例提供的数据标注方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行时实现本发明实施例提供的数据标注方法。
由以上可见,应用本实施例提供的方案进行数据标注时,由于是基于数据采集场景中激光雷达采集的点云数据,确定数据采集场景中对象在雷达坐标系中的第一位置信息,并通过雷达坐标系与图像坐标系之间的映射关系,得到对象在图像坐标系中的第二位置信息,从而基于上述第二位置信息,对图像采集设备所采集图像中对象所在的区域进行标注。相较于现有技术,由于不需要工作人员手动对图像中对象所在区域进行标注,因此,提高了数据标注效率。
另外,由于第一位置信息为基于激光雷达所采集的点云数据所确定的,且基于激光雷达采集的点云数据所确定的位置信息能够较为准确地反映对象在雷达坐标系中的位置。因此,基于雷达坐标系与图像坐标系之间的映射关系和第一位置信息能够更加准确地获得上述对象在图像坐标系中的第二位置信息,从而提高了数据标注的准确率。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (12)
1.一种数据标注方法,其特征在于,所述方法包括:
获得数据采集场景中激光雷达采集的点云数据;
基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,其中,所述雷达坐标系为:基于所述激光雷达的内参预先构建的坐标系;
基于所述雷达坐标系与图像坐标系之间的映射关系和所述第一位置信息,获得所述对象在所述图像坐标系中的第二位置信息,其中,所述图像坐标系为:基于所述数据采集场景中图像采集设备的内参预先构建的坐标系,所述图像采集设备与激光雷达的采集时钟同步、在所述数据采集场景中的采集区域相同;
基于所述第二位置信息,对所述图像采集设备所采集图像中所述对象所在的区域进行标注。
2.根据权利要求1所述的方法,其特征在于,所述基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,包括:
对所述点云数据进行聚类,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第一参数值;
将所述点云数据输入至预先训练的参数值获得模型,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值,所述参数值获得模型为:对预设的神经网络模型进行训练得到的、用于获得包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值的模型,对所述预设的神经网络模型进行训练时,以样本点云数据作为训练样本,以包含样本数据采集场景中对象的预设类型立体形状的预设类型参数项的真实参数值为训练基准进行训练;
将所述第一参数值和所述第二参数值进行数据融合,得到第三参数值;
根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,作为所述数据采集场景中对象在雷达坐标系中的第一位置信息。
3.根据权利要求2所述的方法,其特征在于,
所述预设类型参数项包括:所述预设类型立体形状的中心点位置、所述预设类型立体形状的尺寸以及所述预设类型立体形状所包含对象的偏转角度,其中,所述偏转角度为:所述预设类型立体形状所包含对象的运动方向与所述雷达坐标系的横轴所指示方向之间的夹角。
4.根据权利要求2所述的方法,其特征在于,所述预设类型立体形状为:长方体,
所述根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,包括:
根据所述第三参数值,计算所述长方体在所述雷达坐标系中的各个顶点的坐标值,作为所述预设类型立体形状在所述雷达坐标系中的形状参数。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述激光雷达为:高线束激光雷达。
6.一种数据标注装置,其特征在于,所述装置包括:
点云数据获得模块,用于获得数据采集场景中激光雷达采集的点云数据;
第一信息确定模块,用于基于所述点云数据,确定所述数据采集场景中对象在雷达坐标系中的第一位置信息,其中,所述雷达坐标系为:基于所述激光雷达的内参预先构建的坐标系;
第二信息确定模块,用于基于所述雷达坐标系与图像坐标系之间的映射关系和所述第一位置信息,获得所述对象在所述图像坐标系中的第二位置信息,其中,所述图像坐标系为:基于所述数据采集场景中图像采集设备的内参预先构建的坐标系,所述图像采集设备与激光雷达的采集时钟同步、在所述数据采集场景中的采集区域相同;
数据标注模块,用于基于所述第二位置信息,对所述图像采集设备所采集图像中所述对象所在的区域进行标注。
7.根据权利要求6所述的装置,其特征在于,所述第一信息确定模块,包括:
第一参数值得到模块,用于对所述点云数据进行聚类,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第一参数值;
第二参数值得到模块,用于将所述点云数据输入至预先训练的参数值获得模型,得到包含所述数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值,所述参数值获得模型为:对预设的神经网络模型进行训练得到的、用于获得包含数据采集场景中对象的预设类型立体形状的预设类型参数项的第二参数值的模型,对所述预设的神经网络模型进行训练时,是以样本点云数据作为训练样本,以包含样本数据采集场景中对象的预设类型立体形状的预设类型参数项的真实参数值为训练基准进行训练;
第三参数值得到模块,用于将所述第一参数值和所述第二参数值进行数据融合,得到第三参数值;
形状参数获得子模块,用于根据所述第三参数值,获得所述预设类型立体形状在所述雷达坐标系中的形状参数,作为所述数据采集场景中对象在雷达坐标系中的第一位置信息。
8.根据权利要求7所述的装置,其特征在于,
所述预设类型参数项包括所述预设类型立体形状的中心点位置、所述预设类型立体形状的尺寸以及所述预设类型立体形状所包含对象的偏转角度,其中,所述偏转角度为:所述预设类型立体形状所包含对象的运动方向与所述雷达坐标系的横轴所指示方向之间的夹角。
9.根据权利要求7所述的装置,其特征在于,所述预设类型立体形状为:长方体,
所述形状参数获得子模块,具体用于根据所述第三参数值,计算所述长方体在所述雷达坐标系中的各个顶点的坐标值,作为所述预设类型立体形状在所述雷达坐标系中的形状参数。
10.根据权利要求6-9中任一项所述的装置,其特征在于,所述激光雷达为:高线束激光雷达。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一所述的方法步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410644346.9A CN118537394A (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
CN202011148325.6A CN112381873B (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011148325.6A CN112381873B (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410644346.9A Division CN118537394A (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112381873A true CN112381873A (zh) | 2021-02-19 |
CN112381873B CN112381873B (zh) | 2024-06-14 |
Family
ID=74580842
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410644346.9A Pending CN118537394A (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
CN202011148325.6A Active CN112381873B (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410644346.9A Pending CN118537394A (zh) | 2020-10-23 | 2020-10-23 | 一种数据标注方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN118537394A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113281780A (zh) * | 2021-05-27 | 2021-08-20 | 北京地平线信息技术有限公司 | 对图像数据进行标注的方法、装置及电子设备 |
CN113469042A (zh) * | 2021-06-30 | 2021-10-01 | 上海商汤临港智能科技有限公司 | 真值数据确定、神经网络训练、行驶控制方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190120955A1 (en) * | 2017-10-20 | 2019-04-25 | Texas Instruments Incorporated | System and method for camera radar fusion |
CN109683170A (zh) * | 2018-12-27 | 2019-04-26 | 驭势科技(北京)有限公司 | 一种图像行驶区域标注方法、装置、车载设备及存储介质 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN110378360A (zh) * | 2018-08-01 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 目标标定方法、装置、电子设备及可读存储介质 |
CN110929669A (zh) * | 2019-11-29 | 2020-03-27 | 北京百度网讯科技有限公司 | 数据标注方法及装置 |
CN111127563A (zh) * | 2019-12-18 | 2020-05-08 | 北京万集科技股份有限公司 | 联合标定方法、装置、电子设备及存储介质 |
CN111142091A (zh) * | 2020-01-10 | 2020-05-12 | 清华大学 | 一种融合车载信息的自动驾驶系统激光雷达在线标定方法 |
CN111308448A (zh) * | 2018-12-10 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 图像采集设备与雷达的外参确定方法及装置 |
US20200301013A1 (en) * | 2018-02-09 | 2020-09-24 | Bayerische Motoren Werke Aktiengesellschaft | Methods and Apparatuses for Object Detection in a Scene Based on Lidar Data and Radar Data of the Scene |
-
2020
- 2020-10-23 CN CN202410644346.9A patent/CN118537394A/zh active Pending
- 2020-10-23 CN CN202011148325.6A patent/CN112381873B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190120955A1 (en) * | 2017-10-20 | 2019-04-25 | Texas Instruments Incorporated | System and method for camera radar fusion |
US20200301013A1 (en) * | 2018-02-09 | 2020-09-24 | Bayerische Motoren Werke Aktiengesellschaft | Methods and Apparatuses for Object Detection in a Scene Based on Lidar Data and Radar Data of the Scene |
CN110378360A (zh) * | 2018-08-01 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 目标标定方法、装置、电子设备及可读存储介质 |
CN111308448A (zh) * | 2018-12-10 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 图像采集设备与雷达的外参确定方法及装置 |
CN109683170A (zh) * | 2018-12-27 | 2019-04-26 | 驭势科技(北京)有限公司 | 一种图像行驶区域标注方法、装置、车载设备及存储介质 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN110929669A (zh) * | 2019-11-29 | 2020-03-27 | 北京百度网讯科技有限公司 | 数据标注方法及装置 |
CN111127563A (zh) * | 2019-12-18 | 2020-05-08 | 北京万集科技股份有限公司 | 联合标定方法、装置、电子设备及存储介质 |
CN111142091A (zh) * | 2020-01-10 | 2020-05-12 | 清华大学 | 一种融合车载信息的自动驾驶系统激光雷达在线标定方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113281780A (zh) * | 2021-05-27 | 2021-08-20 | 北京地平线信息技术有限公司 | 对图像数据进行标注的方法、装置及电子设备 |
CN113281780B (zh) * | 2021-05-27 | 2024-04-30 | 北京地平线信息技术有限公司 | 对图像数据进行标注的方法、装置及电子设备 |
CN113469042A (zh) * | 2021-06-30 | 2021-10-01 | 上海商汤临港智能科技有限公司 | 真值数据确定、神经网络训练、行驶控制方法及装置 |
WO2023273467A1 (zh) * | 2021-06-30 | 2023-01-05 | 上海商汤智能科技有限公司 | 真值数据确定、神经网络训练、行驶控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN118537394A (zh) | 2024-08-23 |
CN112381873B (zh) | 2024-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN109461211B (zh) | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 | |
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
EP3570253B1 (en) | Method and device for reconstructing three-dimensional point cloud | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN111694903A (zh) | 地图构建方法、装置、设备以及可读存储介质 | |
CN110501036A (zh) | 传感器参数的标定检查方法及装置 | |
KR20220025028A (ko) | 시각적 비콘 기반의 비콘 맵 구축 방법, 장치 | |
CN111105495A (zh) | 一种融合视觉语义信息的激光雷达建图方法及系统 | |
WO2022217988A1 (zh) | 传感器配置方案确定方法、装置、计算机设备、存储介质及程序 | |
CN113804100B (zh) | 确定目标对象的空间坐标的方法、装置、设备和存储介质 | |
US10097811B2 (en) | Multi-part corresponder for multiple cameras | |
CN112036359B (zh) | 一种车道线的拓扑信息获得方法、电子设备及存储介质 | |
CN112381873B (zh) | 一种数据标注方法及装置 | |
CN112991534A (zh) | 一种基于多粒度物体模型的室内语义地图构建方法及系统 | |
CN114969221A (zh) | 一种更新地图的方法及相关设备 | |
CN111695497A (zh) | 基于运动信息的行人识别方法、介质、终端和装置 | |
CN112489240A (zh) | 一种商品陈列巡检方法、巡检机器人以及存储介质 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN114140608B (zh) | 一种光伏板标记方法、装置、电子设备及存储介质 | |
CN115830073A (zh) | 地图要素重建方法、装置、计算机设备和存储介质 | |
CN112215036A (zh) | 跨镜追踪方法、装置、设备及存储介质 | |
CN113808186B (zh) | 训练数据生成方法、装置与电子设备 | |
CN114187344A (zh) | 一种地图构建方法、装置及设备 | |
CN116266402A (zh) | 对象自动标注方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |