CN111401423A - 用于自动驾驶车辆的数据处理方法和装置 - Google Patents
用于自动驾驶车辆的数据处理方法和装置 Download PDFInfo
- Publication number
- CN111401423A CN111401423A CN202010162070.2A CN202010162070A CN111401423A CN 111401423 A CN111401423 A CN 111401423A CN 202010162070 A CN202010162070 A CN 202010162070A CN 111401423 A CN111401423 A CN 111401423A
- Authority
- CN
- China
- Prior art keywords
- target
- dimensional image
- dimensional
- dimensional images
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于自动驾驶车辆的数据处理方法和装置。方法的一具体实施方式包括:获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据;在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;在二维图像的标注目标中,将与三维图像的同一个标注目标具有关联关系的标注目标,确定为目标关联目标;生成该目标关联目标在所对应的至少两个二维图像中的关联信息。本申请实施例能够实现自动驾驶车辆中,传感器采集的二维图像的自动关联,这样,基于关联得到的二维图像生成训练样本,可以提高生成训练样本的准确度和效率。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于自动驾驶车辆的数据处理方法和装置。
背景技术
在无人车驾驶系统中,视觉感知系统有着具足轻重的地位。视觉感知系统可以基于深度学习模型进行环境感知与目标检测等。比如,视觉感知系统可以包括摄像头、雷达等等。
在现有技术中,为了进行更加准确的视觉感知,采用了不止一路传感器获取数据。并且,利用大量的样本对该模型进行训练,也可以进一步提高深度学习模型感知的准确度。
发明内容
本申请实施例提出了用于自动驾驶车辆的数据处理方法和装置。
第一方面,本申请实施例提供了一种用于自动驾驶车辆的数据处理方法,自动驾驶车辆包括第一传感器和多个第二传感器,方法包括:获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据,其中,三维图像和二维图像两者的时间戳之差的绝对值小于预设时长;在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;在多个第二传感器采集的二维图像的关联目标中,将与三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标;对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的该目标关联目标之间的关联关系。
在一些实施例中,方法还包括:对于所确定目标关联目标中的每一个目标关联目标,将至少两个二维图像中的每个二维图像中的该目标关联目标反投影到三维空间中,得到反投影结果;判断反投影结果与三维图像中的该目标关联目标的位置是否匹配;若不匹配,则撤销该二维图像中的该目标关联目标与其它二维图像的该目标关联目标的关联关系。
在一些实施例中,判断反投影结果与三维图像中的该目标关联目标的位置是否匹配,包括:在三维空间中,确定反投影结果所对应的区域与三维图像中的该目标关联目标对应的区域之间的交并比;若交并比大于或等于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置匹配;若交并比小于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置不匹配。
在一些实施例中,方法还包括:对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本。
在一些实施例中,对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本,包括:将该目标关联目标所对应的至少两个二维图像、该目标关联目标所对应的至少两个二维图像中目标关联目标的标注数据,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定为一个训练样本。
在一些实施例中,深度神经网络通过以下方式训练得到:将一个训练样本中的至少两个二维图像输入深度神经网络,得到从深度神经网络输出的对该目标关联目标的位置的预测结果;将一个训练样本中,该目标关联目标的标注数据以及关联信息作为期望预测结果,基于输出的预测结果以及期望预测结果,训练深度神经网络,得到训练后的深度神经网络。
第二方面,本申请实施例提供了一种用于自动驾驶车辆的数据处理装置,自动驾驶车辆包括第一传感器和多个第二传感器,装置包括:获取单元,被配置成获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据,其中,三维图像和二维图像两者的时间戳之差的绝对值小于预设时长;确定单元,被配置成在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;关联单元,被配置成在多个第二传感器采集的二维图像的关联目标中,将与三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标;生成单元,被配置成对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的该目标关联目标之间的关联关系。
在一些实施例中,装置还包括:反投影单元,被配置成对于所确定目标关联目标中的每一个目标关联目标,将至少两个二维图像中的每个二维图像中的该目标关联目标反投影到三维空间中,得到反投影结果;判断单元,被配置成判断反投影结果与三维图像中的该目标关联目标的位置是否匹配;撤销单元,被配置成若不匹配,则撤销该二维图像中的该目标关联目标与其它二维图像的该目标关联目标的关联关系。
在一些实施例中,判断单元,进一步被配置成按照如下方式执行判断反投影结果与三维图像中的该目标关联目标的位置是否匹配:在三维空间中,确定反投影结果所对应的区域与三维图像中的该目标关联目标对应的区域之间的交并比;若交并比大于或等于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置匹配;若交并比小于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置不匹配。
在一些实施例中,装置还包括:样本确定单元,被配置成对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本。
在一些实施例中,样本确定单元,进一步被配置成按照如下方式执行对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本:将该目标关联目标所对应的至少两个二维图像、该目标关联目标所对应的至少两个二维图像中目标关联目标的标注数据,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定为一个训练样本。
在一些实施例中,深度神经网络通过以下方式训练得到:将一个训练样本中的至少两个二维图像输入深度神经网络,得到从深度神经网络输出的对该目标关联目标的位置的预测结果;将一个训练样本中,该目标关联目标的标注数据以及关联信息作为期望预测结果,基于输出的预测结果以及期望预测结果,训练深度神经网络,得到训练后的深度神经网络。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如用于自动驾驶车辆的数据处理方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如用于自动驾驶车辆的数据处理方法中任一实施例的方法。
本申请实施例提供的用于自动驾驶车辆的数据处理方案,首先,获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据,其中,三维图像和二维图像两者的时间戳之差小于预设时长。之后,在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标。然后,在多个第二传感器采集的二维图像的标注目标中,将与三维图像的同一个标注目标具有关联关系的标注目标,确定为目标关联目标。最后,对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的该目标关联目标之间的关联关系。本申请实施例能够实现自动驾驶车辆中,传感器采集的二维图像的自动、准确的关联。这样,可以有助于利用关联得到的二维图像和关联信息生成训练样本,从而提高生成训练样本的准确度和效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请一些实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于自动驾驶车辆的数据处理方法的一个实施例的流程图;
图3是根据本申请的用于自动驾驶车辆的数据处理方法的一个应用场景的示意图;
图4是根据本申请的用于自动驾驶车辆的数据处理方法的又一个实施例的流程图;
图5是根据本申请的用于自动驾驶车辆的数据处理装置的一个实施例的结构示意图;
图6是适于用来实现本申请一些实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于自动驾驶车辆的数据处理方法或用于自动驾驶车辆的数据处理装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括车载系统(也即车载大脑)101,网络102和服务器103。网络102用以在车载系统101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用车载系统101通过网络102与服务器103交互,以接收或发送消息等。车载系统101上可以安装有各种通讯客户端应用。
服务器103可以是提供各种服务的服务器,例如对车载系统101提供支持的后台服务器。后台服务器可以对接收到的二维图像的标注数据和三维图像的标注数据等数据进行分析等处理,并将处理结果(例如一个训练样本)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于自动驾驶车辆的数据处理方法可以由车载系统101执行,相应地,用于自动驾驶车辆的数据处理装置可以设置于车载系统101中。
应该理解,图1中的车载系统、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的车载系统、网络和服务器。
继续参考图2,示出了根据本申请的用于自动驾驶车辆的数据处理方法的一个实施例的流程200。自动驾驶车辆包括第一传感器和多个第二传感器。该用于自动驾驶车辆的数据处理方法,包括以下步骤:
步骤201,获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据,其中,三维图像和二维图像两者的时间戳之差的绝对值小于预设时长。
在本实施例中,用于自动驾驶车辆的数据处理方法的执行主体(例如图1所示的车载系统)可以获取三维图像的标注数据,还可以获取二维图像的标注数据。该自动驾驶车辆可以安装有第一传感器和第二传感器,其中,第二传感器的数量可以是多个。在实践中,三维图像可以是第一传感器采集的,二维图像可以是第二传感器采集的。第一传感器可以是雷达,比如激光雷达。第二传感器可以是摄像头。在实践中,三维图像可以是雷达在360度的环视视角中采集的图像,从而可以与任意视角的相机进行关联。
在自动驾驶车辆的第一传感器采集的各个三维图像,以及第二传感器采集的各个二维图像中,确定出时间戳之差小于一定阈值的图像,作为本申请获取标注数据所针对的对象。可选地,上述执行主体可以将上述的各个传感器采集的时间戳之差最小的图像,作为上述三维图像和二维图像。
在实践中,这里的标注数据是对单个图像(比如二维图像或三维图像)进行目标检测的结果,标注数据并不能表示出不同的图像目标之间的关联。比如,一辆自动驾驶车辆在1号二维图像中检测到两个目标,标注数据表示为目标X“一只兔子”和目标Y“一个男孩”,在2号二维图像中检测到3个目标,标注数据表示为目标X(一个男孩)、目标Y(一只鹿)和目标Z(一辆自行车)。
在本实施例的一些可选的实现方式中,多个第二传感器可以为多个摄像头组成的环视的摄像头组合。
在这些可选的实现方式中,多个第二传感器可以按照环形排列,从而组成环视的摄像头组合。这些第二传感器拍摄的角度不同。比如,多个第二传感器可以向自动驾驶车辆的前、后、左、右分别进行拍摄。
步骤202,在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标。
在本实施例中,上述执行主体可以将每个第二传感器采集的二维图像的标注数据,与上述三维图像的标注数据作为一个单位,在该单位的二维图像的标注数据和三维图像的标注数据之中确定出相同的标注目标,并将相同的标注目标作为具有关联关系的关联目标。
二维图像和三维图像的标注数据中均可以包括标注目标的信息,比如标注目标的标识。这里的标注目标指被标注的目标(对象)。二维图像的标注数据可以包括对标注目标在二维图像中所标注的位置,以及标注目标的标识,比如,该位置可以是(x,y,h,w),即目标所在目标框的左上角顶点的坐标x,y,以及目标框的高和宽,此外,也可以是目标框四个顶点的坐标。该标注目标的标识可以是数字,也可以是字母或文字等等。三维图像的标注数据可以包括标注目标的标识,以及标注目标在雷达坐标系中的位置、尺寸和/或速度等。比如,三维图像中标注目标的位置可以采用标注目标与自动驾驶车辆的距离来表示,也可以采用标注目标的具体坐标来表示。
在实践中,上述执行主体可以采用各种方式确定出相同的标注目标。比如,上述执行主体可以通过雷达的位姿,将三维图像在雷达坐标系中的位置,转换到世界坐标系中,之后再通过相机的位姿,将转换得到的世界坐标系中的位置,转换到相机坐标系中。之后,上述执行主体可以将转换得到的相机坐标系中的位置中,各个标注目标的位置,与二维图像的标注数据中的各个标注目标的位置进行比对,比如,确定交并比(Intersection-over-Union,IoU)。之后,上述执行主体可以将两个图像中,交并比达到预设数值的标注目标作为相同的标注目标。此外,上述执行主体还可以将二维图像的标注数据中的位置,通过世界坐标系,转换到三维的雷达坐标系中。之后,上述执行主体可以将雷达坐标系中,转换得到的标注目标的位置和三维图像的标注目标的位置进行比对,将交并比达到预设数值的标注目标作为相同的标注目标。
步骤203,在多个第二传感器采集的二维图像的关联目标中,将与三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标。
在本实施例中,上述执行主体可以在上述多个第二传感器所采集的多个二维图像中,确定出至少两个二维图像,并利用在各个二维图像与三维图像之间确定出的一致(相同)的关联目标,建立该至少两个二维图像中,一致的关联目标的关联关系。
举例来说,至少两个二维图像中包括1号二维图像和2号二维图像,1号二维图像与上述三维图像中确定出的相同的标注目标包括标注目标X,2号二维图像与上述三维图像中确定出的相同的标注目标也包括标注目标X,那么,1号二维图像、2号二维图像,与三维图像之间的相同的标注目标是一致的。
在实践中,在二维图像和三维图像中所确定的相同的标注目标也即关联目标的数量可以是一个或多个,此外,每个二维图像所对应的目标关联目标的数量也可以是一个或多个。
步骤204,对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的该目标关联目标之间的关联关系。
在本实施例中,上述执行主体可以对于每一个目标关联目标,生成该目标关联目标的关联信息。具体地,目标关联目标与上述至少两个二维图像存在对应关系,上述至少两个二维图像的标注目标中均存在该目标关联目标。所生成的关联信息是该目标关联目标在所对应的至少两个二维图像中的关联信息。
在实践中,关联信息可以指用于指示至少两个二维图像之中的关联目标之间关联关系的信息。比如,关联信息可以包括目标关联目标在至少两个二维图像的每个二维图像中的标识。
举例来说,至少两个二维图像中包括1号二维图像和2号二维图像,1号二维图像与上述三维图像中确定出的相同的标注目标包括标注目标(一只兔子),该标注目标在1号二维图像中的标识为“1”,2号二维图像与上述三维图像中确定出的相同的标注目标也包括标注目标(一只兔子),该标注目标在2号二维图像中的标识为“2”,关联信息可以包括标识“1”和标识“2”,以及指示这些标识之间关联关系的标识。
本申请的上述实施例提供的方法能够实现自动驾驶车辆中,传感器采集的二维图像的自动、准确的关联。这样,可以有助于利用关联得到的二维图像和关联信息生成训练样本,从而提高生成训练样本的准确度和效率。
在本实施例的一些可选的实现方式中,对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本。
在这些可选的实现方式中,上述执行主体可以基于上述至少两个二维图像,以及目标关联目标的关联信息,确定出一个训练样本。上述深度神经网络可以是各种在图像中进行目标检测的深度神经网络,比如,深度神经网络可以是卷积神经网络、残差神经网络等等。
在实践中,上述执行主体可以采用各种方式确定一个训练样本。比如,上述执行主体可以将上述至少两个二维图像和该目标关联目标的关联信息,作为一个训练样本中的样本信息。此外,上述执行主体还可以将上述至少两个二维图像、这些二维图像关于该目标关联目标的标注数据,和该目标关联目标的关联信息作为一个训练样本中的内容。
这些实现方式的一些可选的应用场景中,这些实现方式中的对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本,可以包括:将该目标关联目标所对应的至少两个二维图像、该目标关联目标所对应的至少两个二维图像中目标关联目标的标注数据,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定为一个训练样本。
在这些可选的应用场景中,标注数据中存在指示目标关联目标在二维图像中的位置的数据。具体地,该位置的数据可以包括对目标关联目标在二维图像中所标注的位置,以及目标关联目标在该二维图像中的标识。比如,该位置的数据可以是(x,y,h,w),即目标关联目标所在目标框的左上角顶点的坐标x,y,以及目标框的高和宽,此外,也可以是目标框四个顶点的坐标。
这些应用场景可以将关联的二维图像和关联信息,作为同一个训练样本中的样本信息,从而进一步提高训练样本的准确度。
在这些实现方式的一些可选的应用场景中,上述深度神经网络通过以下方式训练得到:将一个训练样本中的至少两个二维图像输入深度神经网络,得到从深度神经网络输出的对该目标关联目标的位置的预测结果;将一个训练样本中,该目标关联目标的标注数据以及关联信息作为期望预测结果,基于输出的预测结果以及期望预测结果,训练深度神经网络,得到训练后的深度神经网络。
在这些可选的应用场景中,上述执行主体或者其他电子设备可以将上述一个训练样本中的至少两个二维图像输入上述深度神经网络,从而得到从该深度神经网络输出的预测结果。该预测结果包括针对该至少两个二维图像中的各个二维图像中的目标关联目标的位置的预测结果。
在实践中,上述执行主体可以将上述一个训练样本中的目标关联目标的标注数据和关联信息作为期望预测结果,从而确定期望预测结果与输出的预测结果的损失值,并利用该损失值进行训练。上述一个训练样本中的标注数据和关联信息可以指示出该目标关联目标的真实位置。
上述执行主体可以基于输出的预测结果,和上述一个训练样本中的关联信息进行训练。具体地,上述执行主体可以利用预测结果和关联关系,以及预设的损失函数,确定出损失值,并利用该损失值进行训练。
这些应用场景可以利用包括的二维图像,训练深度神经网络,从而可以有效地提高深度神经网络的准确度。
继续参见图3,图3是根据本实施例的用于自动驾驶车辆的数据处理方法的应用场景的一个示意图。自动驾驶车辆包括第一传感器和多个第二传感器。在图3的应用场景中,执行主体301可以获取第一传感器采集的三维图像的标注数据302,以及获取环形排列的多个第二传感器分别采集的二维图像的标注数据303。执行主体301在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标304。执行主体301在多个第二传感器采集的二维图像的标注目标中,将与三维图像的同一个标注目标具有关联关系的标注目标,确定为目标关联目标305,这里的目标关联目标包括“一只灰兔”和“一只白兔”。对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息306,其中,关联信息306用于指示至少两个二维图像中的目标关联目标之间的关联关系。
进一步参考图4,其示出了用于自动驾驶车辆的数据处理方法的又一个实施例的流程400。该用于自动驾驶车辆的数据处理方法的流程400,包括以下步骤:
步骤401,获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据,其中,三维图像和二维图像两者的时间戳之差小于预设时长。
在本实施例中,用于自动驾驶车辆的数据处理方法的执行主体(例如图1所示的车载系统)可以获取三维图像的标注数据,还可以获取二维图像的标注数据。该自动驾驶车辆可以安装有第一传感器和第二传感器,其中,第二传感器的数量可以是多个。在实践中,三维图像可以是第一传感器采集的,二维图像可以是第二传感器采集的。第一传感器可以是雷达,比如激光雷达。第二传感器可以是摄像头。
步骤402,在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标。
在本实施例中,上述执行主体可以将每个第二传感器采集的二维图像的标注数据,与上述三维图像的标注数据作为一个单位,在该单位的二维图像的标注数据和三维图像的标注数据之中确定出相同的标注目标,并将相同的标注目标作为具有关联关系的关联目标。
步骤403,在多个第二传感器采集的二维图像的关联目标中,将与三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标。
在本实施例中,上述执行主体可以在上述多个第二传感器所采集的多个二维图像中,确定出至少两个二维图像,并利用在各个二维图像与三维图像之间确定出的一致(相同)的关联目标,建立该至少两个二维图像中,一致的关联目标的关联关系。
步骤404,对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的目标关联目标之间的关联关系。
在本实施例中,上述执行主体可以对于每一个目标关联目标,生成该目标关联目标的关联信息。具体地,目标关联目标与上述至少两个二维图像存在对应关系,上述至少两个二维图像的标注目标中均存在该目标关联目标。所生成的关联信息是该目标关联目标在所对应的至少两个二维图像中的关联信息。
步骤405,对于所确定目标关联目标中的每一个目标关联目标,将至少两个二维图像中的每个二维图像中的该目标关联目标反投影到三维空间中,得到反投影结果。
在本实施例中,上述执行主体可以将上述至少两个二维图像中的每个二维图像中的上述目标关联目标,反投影到三维空间中,得到反投影结果。反投影的结果为一个二维的位置,例如,该位置可以采用坐标比如矩形区域四个顶点的坐标来表示,也可以采用位置中一个点的坐标(比如左上角顶点)以及位置的宽、高来表示。
步骤406,判断反投影结果与三维图像中的该目标关联目标的位置是否匹配。
在本实施例中,上述执行主体可以确定每个二维图像中上述目标关联目标的反投影结果,与上述三维图像中该目标关联目标的位置是否匹配。在实践中,上述执行主体可以采用各种方式确定反投影结果与三维图像中目标关联目标的位置是否匹配。比如,反投影结果为某坐标,上述执行主体可以确定该坐标与三维图像中目标关联目标的坐标是否一致。若一致,则上述执行主体可以确定匹配。
在本实施例的一些可选的实现方式中,步骤406可以包括:在三维空间中,确定反投影结果所对应的区域与三维图像中的该目标关联目标对应的区域之间的交并比;若交并比大于或等于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置匹配;若交并比小于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置不匹配。
在这些可选的实现方式中,上述执行主体可以在三维空间中,确定反投影得到的位置所包含的区域,与三维图像中目标关联目标对应的区域之间的交并比。这里的目标关联目标对应的区域是目标关联目标在雷达坐标系中的具体位置,该具体位置可以为一个区域。
之后,上述执行主体可以将该交并比与预设阈值相比较。具体地,如果交并比较大,则上述执行主体可以确定反投影结果,与三维图像中目标关联目标的位置匹配。如果交并比较小,则可以确定不匹配。
这些实现方式可以利用交并比,将反投影结果与三维图像中的目标关联目标的位置进行精准的匹配,从而提高了匹配的准确度。
步骤407,若不匹配,则撤销该二维图像中的该目标关联目标与其它二维图像的该目标关联目标的关联关系。
在本实施例中,上述执行主体可以通过上述匹配过程的匹配结果,来验证关联关系的正确性。具体地,如果匹配,则可以确定至少两个二维图像中的该二维图像的目标关联目标,与其他二维图像的目标关联目标之间的关联关系成立。如果不匹配,则可以确定上述至少两个二维图像中该二维图像的该目标关联目标,与其他二维图像的该目标关联目标之间的关联关系不成立,并撤销。
本实施例可以通过反投影,验证二维图像与其他二维图像之间的关联关系的正确性,从而可以在建立关联关系失误的情况下,对关联关系予以撤销。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于自动驾驶车辆的数据处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征或效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于自动驾驶车辆的数据处理装置500包括:获取单元501、确定单元502、关联单元503和生成单元504。其中,获取单元501,被配置成获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据,其中,三维图像和二维图像的时间戳之差小于预设时长;确定单元502,被配置成在每个第二传感器采集的二维图像的标注数据,与三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;关联单元503,被配置成在多个第二传感器采集的二维图像的标注目标中,将与三维图像的同一个标注目标具有关联关系的标注目标,确定为目标关联目标;生成单元504,被配置成对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的该目标关联目标之间的关联关系。
在一些实施例中,用于自动驾驶车辆的数据处理装置500的获取单元501可以获取三维图像的标注数据,还可以获取二维图像的标注数据。该自动驾驶车辆可以安装有第一传感器和第二传感器,其中,第二传感器的数量可以是多个。在实践中,三维图像可以是第一传感器采集的,二维图像可以是第二传感器采集的。第一传感器可以是雷达,比如激光雷达。第二传感器可以是摄像头。
在一些实施例中,确定单元502可以将每个第二传感器采集的二维图像的标注数据,与上述三维图像的标注数据作为一个单位,在该单位的二维图像的标注数据和三维图像的标注数据之中确定出相同的标注目标,并将相同的标注目标作为具有关联关系的关联目标。
在一些实施例中,关联单元503可以在上述多个第二传感器所采集的多个二维图像中,确定出至少两个二维图像,并利用在各个二维图像与三维图像之间确定出的相同的标注目标,建立该至少两个二维图像中,一致(相同)的标注目标的关联关系。
在一些实施例中,生成单元504可以对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,关联信息用于指示至少两个二维图像中的该目标关联目标之间的关联关系。
在本实施例的一些可选的实现方式中,装置还包括:反投影单元,被配置成对于所确定目标关联目标中的每一个目标关联目标,将至少两个二维图像中的每个二维图像中的该目标关联目标反投影到三维空间中,得到反投影结果;判断单元,被配置成判断反投影结果与三维图像中的该目标关联目标的位置是否匹配;撤销单元,被配置成若不匹配,则撤销该二维图像中的该目标关联目标与其它二维图像的该目标关联目标的关联关系。
在本实施例的一些可选的实现方式中,判断单元,进一步被配置成按照如下方式执行判断反投影结果与三维图像中的该目标关联目标的位置是否匹配:在三维空间中,确定反投影结果所对应的区域与三维图像中的该目标关联目标对应的区域之间的交并比;若交并比大于或等于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置匹配;若交并比小于预设阈值,则确定反投影结果与三维图像中的该目标关联目标的位置不匹配。
在本实施例的一些可选的实现方式中,装置还包括:样本确定单元,被配置成对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本。
在本实施例的一些可选的实现方式中,样本确定单元,进一步被配置成按照如下方式执行对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本:将该目标关联目标所对应的至少两个二维图像、该目标关联目标所对应的至少两个二维图像中目标关联目标的标注数据,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定为一个训练样本。
在本实施例的一些可选的实现方式中,深度神经网络通过以下方式训练得到:将一个训练样本中的至少两个二维图像输入深度神经网络,得到从深度神经网络输出的对该目标关联目标的位置的预测结果;将一个训练样本中,该目标关联目标的标注数据以及关联信息作为期望预测结果,基于输出的预测结果以及期望预测结果,训练深度神经网络,得到训练后的深度神经网络。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、确定单元、关联单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取第一传感器采集的三维图像的标注数据,以及获取多个第二传感器分别采集的二维图像的标注数据的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取所述第一传感器采集的三维图像的标注数据,以及获取所述多个第二传感器分别采集的二维图像的标注数据,其中,所述三维图像和所述二维图像的时间戳之差的绝对值小于预设时长;在每个第二传感器采集的二维图像的标注数据,与所述三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;在所述多个第二传感器采集的二维图像的关联目标中,将与所述三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标;对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,所述关联信息用于指示所述至少两个二维图像中的该目标关联目标之间的关联关系。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种用于自动驾驶车辆的数据处理方法,所述自动驾驶车辆包括第一传感器和多个第二传感器,所述方法包括:
获取所述第一传感器采集的三维图像的标注数据,以及获取所述多个第二传感器分别采集的二维图像的标注数据,其中,所述三维图像和所述二维图像两者的时间戳之差的绝对值小于预设时长;
在每个第二传感器采集的二维图像的标注数据,与所述三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;
在所述多个第二传感器采集的二维图像的关联目标中,将与所述三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标;
对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,所述关联信息用于指示所述至少两个二维图像中的该目标关联目标之间的关联关系。
2.根据权利要求1所述的方法,其中,所述方法还包括:
对于所确定目标关联目标中的每一个目标关联目标,将所述至少两个二维图像中的每个二维图像中的该目标关联目标反投影到三维空间中,得到反投影结果;
判断所述反投影结果与所述三维图像中的该目标关联目标的位置是否匹配;
若不匹配,则撤销该二维图像中的该目标关联目标与其它二维图像的该目标关联目标的关联关系。
3.根据权利要求2所述的方法,其中,所述判断所述反投影结果与所述三维图像中的该目标关联目标的位置是否匹配,包括:
在所述三维空间中,确定所述反投影结果所对应的区域与所述三维图像中的该目标关联目标对应的区域之间的交并比;
若所述交并比大于或等于预设阈值,则确定所述反投影结果与所述三维图像中的该目标关联目标的位置匹配;
若所述交并比小于预设阈值,则确定所述反投影结果与所述三维图像中的该目标关联目标的位置不匹配。
4.根据权利要求1-3任意一项所述的方法,其中,所述方法还包括:
对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本。
5.根据权利要求4所述的方法,其中,所述对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本,包括:
将该目标关联目标所对应的至少两个二维图像、该目标关联目标所对应的至少两个二维图像中所述目标关联目标的标注数据,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定为所述一个训练样本。
6.根据权利要求5所述的方法,其中,所述深度神经网络通过以下方式训练得到:
将所述一个训练样本中的所述至少两个二维图像输入所述深度神经网络,得到从所述深度神经网络输出的对该目标关联目标的位置的预测结果;
将所述一个训练样本中,该目标关联目标的标注数据以及关联信息作为期望预测结果,基于输出的预测结果以及所述期望预测结果,训练所述深度神经网络,得到训练后的所述深度神经网络。
7.一种用于自动驾驶车辆的数据处理装置,所述自动驾驶车辆包括第一传感器和多个第二传感器,所述装置包括:
获取单元,被配置成获取所述第一传感器采集的三维图像的标注数据,以及获取所述多个第二传感器分别采集的二维图像的标注数据,其中,所述三维图像和所述二维图像两者的时间戳之差的绝对值小于预设时长;
确定单元,被配置成在每个第二传感器采集的二维图像的标注数据,与所述三维图像的标注数据之中,确定出相同的标注目标作为具有关联关系的关联目标;
关联单元,被配置成在所述多个第二传感器采集的二维图像的关联目标中,将与所述三维图像的同一个标注目标具有关联关系的关联目标,确定为目标关联目标;
生成单元,被配置成对于所确定的目标关联目标中的每一个目标关联目标,生成该目标关联目标在所对应的至少两个二维图像中的关联信息,其中,所述关联信息用于指示所述至少两个二维图像中的该目标关联目标之间的关联关系。
8.根据权利要求7所述的装置,其中,所述装置还包括:
反投影单元,被配置成对于所确定目标关联目标中的每一个目标关联目标,将所述至少两个二维图像中的每个二维图像中的该目标关联目标反投影到三维空间中,得到反投影结果;
判断单元,被配置成判断所述反投影结果与所述三维图像中的该目标关联目标的位置是否匹配;
撤销单元,被配置成若不匹配,则撤销该二维图像中的该目标关联目标与其它二维图像的该目标关联目标的关联关系。
9.根据权利要求8所述的装置,其中,所述判断单元,进一步被配置成按照如下方式执行所述判断所述反投影结果与所述三维图像中的该目标关联目标的位置是否匹配:
在所述三维空间中,确定所述反投影结果所对应的区域与所述三维图像中的该目标关联目标对应的区域之间的交并比;
若所述交并比大于或等于预设阈值,则确定所述反投影结果与所述三维图像中的该目标关联目标的位置匹配;
若所述交并比小于预设阈值,则确定所述反投影结果与所述三维图像中的该目标关联目标的位置不匹配。
10.根据权利要求7-9任意一项所述的装置,其中,所述装置还包括:
样本确定单元,被配置成对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本。
11.根据权利要求10所述的装置,其中,所述样本确定单元,进一步被配置成按照如下方式执行所述对于所确定的目标关联目标中的每一个目标关联目标,基于该目标关联目标所对应的至少两个二维图像,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定用于检测图像的深度神经网络的一个训练样本:
将该目标关联目标所对应的至少两个二维图像、该目标关联目标所对应的至少两个二维图像中所述目标关联目标的标注数据,以及该目标关联目标在所对应的至少两个二维图像中的关联信息,确定为所述一个训练样本。
12.根据权利要求11所述的装置,其中,所述深度神经网络通过以下方式训练得到:
将所述一个训练样本中的所述至少两个二维图像输入所述深度神经网络,得到从所述深度神经网络输出的对该目标关联目标的位置的预测结果;
将所述一个训练样本中,该目标关联目标的标注数据以及关联信息作为期望预测结果,基于输出的预测结果以及所述期望预测结果,训练所述深度神经网络,得到训练后的所述深度神经网络。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010162070.2A CN111401423B (zh) | 2020-03-10 | 2020-03-10 | 用于自动驾驶车辆的数据处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010162070.2A CN111401423B (zh) | 2020-03-10 | 2020-03-10 | 用于自动驾驶车辆的数据处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401423A true CN111401423A (zh) | 2020-07-10 |
CN111401423B CN111401423B (zh) | 2023-05-26 |
Family
ID=71432285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010162070.2A Active CN111401423B (zh) | 2020-03-10 | 2020-03-10 | 用于自动驾驶车辆的数据处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401423B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837385A (zh) * | 2021-09-06 | 2021-12-24 | 东软睿驰汽车技术(沈阳)有限公司 | 一种数据处理方法、装置、设备、介质及产品 |
CN113884123A (zh) * | 2021-09-23 | 2022-01-04 | 广州小鹏汽车科技有限公司 | 一种传感器校验方法及装置、车辆、存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106707293A (zh) * | 2016-12-01 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | 用于车辆的障碍物识别方法和装置 |
CN108932475A (zh) * | 2018-05-31 | 2018-12-04 | 中国科学院西安光学精密机械研究所 | 一种基于激光雷达和单目视觉的三维目标识别系统及方法 |
CN109242903A (zh) * | 2018-09-07 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 三维数据的生成方法、装置、设备及存储介质 |
CN109584295A (zh) * | 2017-09-29 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 对图像内目标物体进行自动标注的方法、装置及系统 |
US10262226B1 (en) * | 2017-05-16 | 2019-04-16 | State Farm Mutual Automobile Insurance Company | Systems and methods regarding 2D image and 3D image ensemble prediction models |
CN109829969A (zh) * | 2018-12-27 | 2019-05-31 | 北京奇艺世纪科技有限公司 | 一种数据获取方法、装置及存储介质 |
CN110276793A (zh) * | 2019-06-05 | 2019-09-24 | 北京三快在线科技有限公司 | 一种标定三维物体的方法及装置 |
US20190317974A1 (en) * | 2018-04-16 | 2019-10-17 | Stops.com Ltd. | Systems and methods for tagging objects for augmented reality |
US20200026283A1 (en) * | 2016-09-21 | 2020-01-23 | Oxford University Innovation Limited | Autonomous route determination |
-
2020
- 2020-03-10 CN CN202010162070.2A patent/CN111401423B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200026283A1 (en) * | 2016-09-21 | 2020-01-23 | Oxford University Innovation Limited | Autonomous route determination |
CN106707293A (zh) * | 2016-12-01 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | 用于车辆的障碍物识别方法和装置 |
US10262226B1 (en) * | 2017-05-16 | 2019-04-16 | State Farm Mutual Automobile Insurance Company | Systems and methods regarding 2D image and 3D image ensemble prediction models |
CN109584295A (zh) * | 2017-09-29 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 对图像内目标物体进行自动标注的方法、装置及系统 |
US20190317974A1 (en) * | 2018-04-16 | 2019-10-17 | Stops.com Ltd. | Systems and methods for tagging objects for augmented reality |
CN108932475A (zh) * | 2018-05-31 | 2018-12-04 | 中国科学院西安光学精密机械研究所 | 一种基于激光雷达和单目视觉的三维目标识别系统及方法 |
CN109242903A (zh) * | 2018-09-07 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 三维数据的生成方法、装置、设备及存储介质 |
CN109829969A (zh) * | 2018-12-27 | 2019-05-31 | 北京奇艺世纪科技有限公司 | 一种数据获取方法、装置及存储介质 |
CN110276793A (zh) * | 2019-06-05 | 2019-09-24 | 北京三快在线科技有限公司 | 一种标定三维物体的方法及装置 |
Non-Patent Citations (3)
Title |
---|
HUIPENG ZHAO等: "Three-dimensional ISAR imaging for space target via multi-pass orbit observation" * |
孔栋等: "基于3D激光雷达点云的道路边界识别算法" * |
张蕊: "基于激光点云的复杂三维场景多态目标语义分割技术研究" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837385A (zh) * | 2021-09-06 | 2021-12-24 | 东软睿驰汽车技术(沈阳)有限公司 | 一种数据处理方法、装置、设备、介质及产品 |
CN113837385B (zh) * | 2021-09-06 | 2024-02-09 | 东软睿驰汽车技术(沈阳)有限公司 | 一种数据处理方法、装置、设备、介质及产品 |
CN113884123A (zh) * | 2021-09-23 | 2022-01-04 | 广州小鹏汽车科技有限公司 | 一种传感器校验方法及装置、车辆、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111401423B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079619B (zh) | 用于检测图像中的目标对象的方法和装置 | |
CN109523597B (zh) | 相机外参的标定方法和装置 | |
CN109308681B (zh) | 图像处理方法和装置 | |
US20180089536A1 (en) | Method and apparatus for processing point cloud data | |
CN107941226B (zh) | 用于生成车辆的方向引导线的方法和装置 | |
CN109300151B (zh) | 图像处理方法和装置、电子设备 | |
CN110674788A (zh) | 车辆定损方法和装置 | |
CN108229375B (zh) | 用于检测人脸图像的方法和装置 | |
CN111401423B (zh) | 用于自动驾驶车辆的数据处理方法和装置 | |
CN111340015B (zh) | 定位方法和装置 | |
US11314975B2 (en) | Object identification in data relating to signals that are not human perceptible | |
CN110110696B (zh) | 用于处理信息的方法和装置 | |
CN111325160B (zh) | 用于生成信息的方法和装置 | |
CN116385336B (zh) | 基于深度学习的焊缝检测方法、系统、装置及存储介质 | |
CN111401194B (zh) | 用于自动驾驶车辆的数据处理方法和装置 | |
CN110413869B (zh) | 用于推送信息的方法和装置 | |
CN112639822A (zh) | 一种数据处理方法及装置 | |
Grimson et al. | Computer vision applications | |
CN112880675B (zh) | 用于视觉定位的位姿平滑方法、装置、终端和移动机器人 | |
CN111383337B (zh) | 用于识别对象的方法和装置 | |
CN110136181B (zh) | 用于生成信息的方法和装置 | |
CN111310858B (zh) | 用于生成信息的方法和装置 | |
CN112668371B (zh) | 用于输出信息的方法和装置 | |
CN109859254B (zh) | 自动驾驶中用于发送信息的方法和装置 | |
CN113256715B (zh) | 机器人的定位方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |