CN110619666B - 用于标定相机的方法及装置 - Google Patents
用于标定相机的方法及装置 Download PDFInfo
- Publication number
- CN110619666B CN110619666B CN201910890571.XA CN201910890571A CN110619666B CN 110619666 B CN110619666 B CN 110619666B CN 201910890571 A CN201910890571 A CN 201910890571A CN 110619666 B CN110619666 B CN 110619666B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- image
- sequence
- cloud data
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000004590 computer program Methods 0.000 claims description 10
- 239000003550 marker Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/06—Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0025—Planning or execution of driving tasks specially adapted for specific operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本公开的实施例公开了用于标定相机的方法及装置。该方法的一具体实施方式包括:获取图像点云序列,其中,上述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。该实施方式能够通过点云数据实现对相机的标定。
Description
技术领域
本公开的实施例涉及数据处理技术领域,具体涉及用于标定相机的方法及装置。
背景技术
车辆大大扩展的人们的生活空间,在人们的日常生活及国民经济中都具有重要作用,汽车产业已经成为我国国民经济的支柱产业。
随着技术的进步,当前的车辆上都配备了多种电子设备,以实现对车辆的各种运行状态以及环境信息的监测,提高了车辆的安全性。
发明内容
本公开的实施例提出了用于标定相机的方法及装置。
第一方面,本公开的实施例提供了一种用于标定相机的方法,该方法包括:获取图像点云序列,其中,上述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。
在一些实施例中,上述图像点云序列的采集方式为:无人驾驶车辆沿直线匀速行驶,安装在无人驾驶车辆上的上述相机间隔设定时间采集图像,安装在无人驾驶车辆上的雷达间隔上述设定时间采集点云数据。
在一些实施例中,上述确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据,包括:根据上述图像点云序列确定上述无人驾驶车辆的实际行驶轨迹;确定上述实际行驶轨迹上对应上述图像点云序列中的每组图像点云中的初始图像的位置点,得到对应上述图像点云序列的位置点序列;对于上述位置点序列中的位置点,在该位置点处获取对应上述初始图像的目标点云数据。
在一些实施例中,上述根据上述图像点云序列确定上述无人驾驶车辆的实际行驶轨迹,包括:根据上述图像点云序列中的每组图像点云包含的点云数据确定上述无人驾驶车辆在三维空间的标记点,得到对应上述点云数据序列的标记点序列;按照标记点在上述标记点序列内的排序对标记点进行拟合,得到上述无人驾驶车辆的实际行驶轨迹。
在一些实施例中,上述根据上述图像点云序列中的每组图像点云包含的点云数据确定上述无人驾驶车辆在三维空间的标记点,包括:确定点云数据在三维空间的角度信息,根据上述角度信息确定上述无人驾驶车辆在三维空间的标记点。
在一些实施例中,上述确定上述实际行驶轨迹上对应上述图像点云序列中的每组图像点云中的初始图像的位置点,包括:将上述标记点设置为对应的每组图像点云中的初始图像的位置点。
在一些实施例中,上述在该位置点处获取对应上述初始图像的目标点云数据,包括:在三维空间的上述标记点处获取目标点云数据。
在一些实施例中,上述将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数,包括:从初始图像中获取特征点集合;确定上述目标点云数据中对应上述特征点集合的至少一个点云特征数据;根据上述至少一个点云特征数据之间的位置关系和角度关系,确定上述相机的修正参数。
第二方面,本公开的实施例提供了一种用于标定相机的装置,该装置包括:图像点云序列获取单元,被配置成获取图像点云序列,其中,上述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;目标点云数据确定单元,被配置成确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;修正参数获取单元,被配置成将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。
在一些实施例中,上述图像点云序列的采集方式为:无人驾驶车辆沿直线匀速行驶,安装在无人驾驶车辆上的上述相机间隔设定时间采集图像,安装在无人驾驶车辆上的雷达间隔上述设定时间采集点云数据。
在一些实施例中,上述目标点云数据确定单元包括:实际行驶轨迹确定子单元,被配置成根据上述图像点云序列确定上述无人驾驶车辆的实际行驶轨迹;位置点确定子单元,被配置成确定上述实际行驶轨迹上对应上述图像点云序列中的每组图像点云中的初始图像的位置点,得到对应上述图像点云序列的位置点序列;目标点云数据获取子单元,被配置成对于上述位置点序列中的位置点,在该位置点处获取对应上述初始图像的目标点云数据。
在一些实施例中,上述实际行驶轨迹确定子单元包括:标记点确定模块,被配置成根据上述图像点云序列中的每组图像点云包含的点云数据确定上述无人驾驶车辆在三维空间的标记点,得到对应上述点云数据序列的标记点序列;实际行驶轨迹拟合模块,被配置成按照标记点在上述标记点序列内的排序对标记点进行拟合,得到上述无人驾驶车辆的实际行驶轨迹。
在一些实施例中,上述标记点确定模块包括:标记点确定子模块,被配置成确定点云数据在三维空间的角度信息,根据上述角度信息确定上述无人驾驶车辆在三维空间的标记点。
在一些实施例中,上述位置点确定子单元包括:位置点设置模块,被配置成将上述标记点设置为对应的每组图像点云中的初始图像的位置点。
在一些实施例中,上述目标点云数据获取子单元包括:目标点云数据获取模块,被配置成在三维空间的上述标记点处获取目标点云数据。
在一些实施例中,上述修正参数获取单元包括:特征点集合获取子单元,被配置成从初始图像中获取特征点集合;点云特征数据确定子单元,被配置成确定上述目标点云数据中对应上述特征点集合的至少一个点云特征数据;修正参数确定子单元,被配置成根据上述至少一个点云特征数据之间的位置关系和角度关系,确定上述相机的修正参数。
第三方面,本公开的实施例提供了一种电子设备,包括:一个或多个处理器;存储器,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器执行上述第一方面的用于标定相机的方法。
第四方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现上述第一方面的用于标定相机的方法。
本公开的实施例提供的用于标定相机的方法及装置,首先获取图像点云序列;然后确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;最后将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。本申请能够通过点云数据实现对相机的标定。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于标定相机的方法的一个实施例的流程图;
图3是根据本公开的用于标定相机的方法的一个应用场景的示意图;
图4是根据本公开的用于标定相机的方法的又一个实施例的流程图;
图5是根据本公开的用于标定相机的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于标定相机的方法或用于标定相机的装置的示例性系统架构100。
如图1所示,系统架构100可以包括无人驾驶车辆101、102、103,网络104和服务器105。网络104用以在无人驾驶车辆101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
无人驾驶车辆101、102、103可以是具有相机、雷达等多个数据采集单元和数据处理单元的各种车辆,包括但不限于电动汽车、油电混合汽车和内燃机汽车等等。
服务器105可以是提供各种服务的服务器,例如对无人驾驶车辆101、102、103发来的图像点云序列提供支持的服务器。服务器可以对接收到的图像点云序列等数据进行分析等处理,并将处理结果(例如无人驾驶车辆101、102、103上相机的修正参数)反馈给无人驾驶车辆。
需要说明的是,本公开的实施例所提供的用于标定相机的方法一般由服务器105执行,相应地,用于标定相机的装置一般设置于服务器105中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
应该理解,图1中的无人驾驶车辆、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的无人驾驶车辆、网络和服务器。
继续参考图2,示出了根据本公开的用于标定相机的方法的一个实施例的流程200。该用于标定相机的方法包括以下步骤:
步骤201,获取图像点云序列。
在本实施例中,用于标定相机的方法的执行主体(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式接收无人驾驶车辆101、102、103发来的图像点云序列。其中,无人驾驶车辆101、102、103上安装有获取图像的相机和获取点云数据的雷达等设备。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(Ultra Wideband)连接、以及其他现在已知或将来开发的无线连接方式。
现有的车辆上通常安装有多种传感器。传感器安装到车辆上后,通常需要到特定的场地,以对传感器的各种参数进行标定,车辆上的车载相机就是其中之一。对相机进行标定时,车辆需要行驶到特定的场地中多个特定的位置,然后通过相机拍摄图像或扫描二维码等方式获取车辆当前所在的位置。结合车辆在场地中的实际位置,可以确定相机拍摄或扫描二维码时获取的图像与图像库中标准图像的差值,进而确定相机需要修改的参数。但是,每年有大量的车型或同一车型的不同车辆需要对车载的相机进行修正,而对应的特定的场地有限。
本申请的执行主体可以首先获取图像点云序列。其中,上述图像点云序列可以包括至少一组同一时刻采集的初始图像和点云数据。初始图像由安装在无人驾驶车辆上的相机采集。点云数据由安装在无人驾驶车辆上的雷达采集。即,本申请用于对无人驾驶车辆上的相机进行标定。
在本实施例的一些可选的实现方式中,上述图像点云序列的采集方式可以为:无人驾驶车辆沿直线匀速行驶,安装在无人驾驶车辆上的上述相机间隔设定时间采集图像,安装在无人驾驶车辆上的雷达间隔上述设定时间采集点云数据。
为了实现无人驾驶,无人驾驶车辆101、102、103上通常都安装有能够获取点云数据的雷达等设备。点云数据通常足够精确,因此可以用于对相机的参数进行修正。具体的,无人驾驶车辆101、102、103可以在道路上直线匀速行驶。在此过程中,无人驾驶车辆101、102、103上的雷达和相机可以间隔设定时间同时分别采集点云数据和图像。即,采集的点云数据和图像具有匹配关系。
步骤202,确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据。
由于点云数据和图像具有匹配关系,相机的参数需要修正。为此,执行主体可以通过点云数据查询对应初始图像的目标点云数据。其中,目标点云数据可以是用于对初始图像进行修正的点云数据。
在本实施例的一些可选的实现方式中,上述确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据,可以包括以下步骤:
第一步,根据上述图像点云序列确定上述无人驾驶车辆的实际行驶轨迹。
执行主体获取到图像点云序列后,可以将图像点云序列包含的图像点云与现有的点云数据进行匹配,以确定无人驾驶车辆101、102、103的实际行驶轨迹。
第二步,确定上述实际行驶轨迹上对应上述图像点云序列中的每组图像点云中的初始图像的位置点,得到对应上述图像点云序列的位置点序列。
点云数据和图像具有匹配关系,相机的参数需要修正。为此,需要确定实际行驶轨迹上采集每一张初始图像时无人驾驶车辆101、102、103所在的位置,即位置点。
第三步,对于上述位置点序列中的位置点,在该位置点处获取对应上述初始图像的目标点云数据。
确定了位置点后,执行主体可以在三维空间的该位置点处获取点云数据,则该点云数据即为对应初始图像的目标点云数据。
在本实施例的一些可选的实现方式中,上述根据上述图像点云序列确定上述无人驾驶车辆的实际行驶轨迹,可以包括以下步骤:
第一步,根据上述图像点云序列中的每组图像点云包含的点云数据确定上述无人驾驶车辆在三维空间的标记点,得到对应上述点云数据序列的标记点序列。
点云数据是三维数据,并且可以包含三维数据的角度信息。因此,执行主体可以将每组图像点云包含的点云数据标记在三维空间里,确定点云数据包含哪些物体,进而确定无人驾驶车辆在三维空间的标记点。
第二步,按照标记点在上述标记点序列内的排序对标记点进行拟合,得到上述无人驾驶车辆的实际行驶轨迹。
得到标记点后,执行主体可以通过拟合等方式将标记点连接起来得到一条线,则该线就对应无人驾驶车辆的实际行驶轨迹。
在本实施例的一些可选的实现方式中,上述根据上述图像点云序列中的每组图像点云包含的点云数据确定上述无人驾驶车辆在三维空间的标记点,可以包括:确定点云数据在三维空间的角度信息,根据上述角度信息确定上述无人驾驶车辆在三维空间的标记点。
点云数据可以包含的角度信息,结合角度信息,执行主体可以确定获取点云数据的三维空间点。该三维空间点即为无人驾驶车辆在三维空间的标记点。
在本实施例的一些可选的实现方式中,上述确定上述实际行驶轨迹上对应上述图像点云序列中的每组图像点云中的初始图像的位置点,可以包括:将上述标记点设置为对应的每组图像点云中的初始图像的位置点。
点云数据和图像具有匹配关系,标记点为点云数据在三维空间中对应的无人驾驶车辆位置。因此,执行主体可以将标记点直接设置为对应的每组图像点云中的初始图像的位置点。
在本实施例的一些可选的实现方式中,上述在该位置点处获取对应上述初始图像的目标点云数据,可以包括:在三维空间的上述标记点处获取目标点云数据。
确定位置点与实际行驶环境对应,标记点可以认为是位置点在三维空间的坐标表示。执行主体可以在标记点处采集点云数据,该点云数据即为对应初始图像的目标点云数据。
步骤203,将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。
目标点云数据与相机在对应的初始图像所在的位置应该拍摄到的图像对应。执行主体可以将目标点云数据与初始图像进行匹配,确定上述相机的修正参数。通过修正参数即可对相机进行标定。
在本实施例的一些可选的实现方式中,上述将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数,可以包括以下步骤:
第一步,从初始图像中获取特征点集合。
为了确定相机哪些参数需要修正,执行主体可以从初始图像中提取特征点,得到特征点。特征点可以是初始图像中对建筑物轮廓、路面边界线等进行标记的点。对于初始图像内不同的图像内容,特征点可以是其他类型的点,此处不再一一赘述。
第二步,确定上述目标点云数据中对应上述特征点集合的至少一个点云特征数据。
目标点云数据与初始图像对应,即目标点云数据中包含有与初始图像的图像内容相对应的点云数据。执行主体可以通过特征匹配等方式,确定上述目标点云数据中对应上述特征点集合的至少一个点云特征数据。
第三步,根据上述至少一个点云特征数据之间的位置关系和角度关系,确定上述相机的修正参数。
目标点云数据为相机在对应的初始图像所在的位置应该拍摄到的图像。即目标点云数据可以认为与相机各个参数在标定好的情况下获取的图像对应。为此,执行主体可以至少一个点云特征数据之间的位置关系和角度关系,确定上述相机的修正参数。
继续参见图3,图3是根据本实施例的用于标定相机的方法的应用场景的一个示意图。在图3的应用场景中,无人驾驶车辆101在行驶过程中获取图像点云序列,并将图像点云序列通过网络104发送给服务器105。其中,图像点云包括路边树木和篮球场的图像和点云数据。服务器105接收到图像点云序列后,确定图像点云序列中的每组图像点云对应的初始图像的目标点云数据,然后将目标点云数据与图像点云序列中对应的初始图像进行匹配,确定相机的修正参数;最后,服务器105可以将相机的修正参数发送给无人驾驶车辆101,使得无人驾驶车辆101对相机的参数进行修正,实现对相机的标定。
本公开的上述实施例提供的方法首先获取图像点云序列;然后确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;最后将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。本申请能够通过点云数据实现对相机的标定。
进一步参考图4,其示出了用于标定相机的方法的又一个实施例的流程400。该用于标定相机的方法的流程400,包括以下步骤:
步骤401,获取图像点云序列。
在本实施例中,用于标定相机的方法执行主体(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式接收无人驾驶车辆101、102、103发来的图像点云序列。
步骤401的内容与步骤201的内容相同,此处不再一一赘述。
步骤402,确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据。
步骤402的内容与步骤202的内容相同,此处不再一一赘述。
步骤403,将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。
步骤403的内容与步骤203的内容相同,此处不再一一赘述。
步骤404,将上述修正参数发送至上述车辆。
得到修正参数后,执行主体可以将修正参数发送给车辆。车辆接收到修正参数后,可以对相机的预设参数进行修正,以使得相机能够获取到与雷达采集的点云数据相匹配的图像。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于标定相机的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于标定相机的装置500可以包括:图像点云序列获取单元501、目标点云数据确定单元502和修正参数获取单元503。其中,图像点云序列获取单元501被配置成获取图像点云序列,其中,上述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;目标点云数据确定单元502被配置成确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;修正参数获取单元503被配置成将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。
在本实施例的一些可选的实现方式中,上述图像点云序列的采集方式可以为:无人驾驶车辆沿直线匀速行驶,安装在无人驾驶车辆上的上述相机间隔设定时间采集图像,安装在无人驾驶车辆上的雷达间隔上述设定时间采集点云数据。
在本实施例的一些可选的实现方式中,上述目标点云数据确定单元502可以包括:实际行驶轨迹确定子单元(图中未示出)、位置点确定子单元(图中未示出)和目标点云数据获取子单元(图中未示出)。其中,实际行驶轨迹确定子单元被配置成根据上述图像点云序列确定上述无人驾驶车辆的实际行驶轨迹;位置点确定子单元被配置成确定上述实际行驶轨迹上对应上述图像点云序列中的每组图像点云中的初始图像的位置点,得到对应上述图像点云序列的位置点序列;目标点云数据获取子单元被配置成对于上述位置点序列中的位置点,在该位置点处获取对应上述初始图像的目标点云数据。
在本实施例的一些可选的实现方式中,上述实际行驶轨迹确定子单元可以包括:标记点确定模块(图中未示出)和实际行驶轨迹拟合模块(图中未示出)。其中,标记点确定模块被配置成根据上述图像点云序列中的每组图像点云包含的点云数据确定上述无人驾驶车辆在三维空间的标记点,得到对应上述点云数据序列的标记点序列;实际行驶轨迹拟合模块被配置成按照标记点在上述标记点序列内的排序对标记点进行拟合,得到上述无人驾驶车辆的实际行驶轨迹。
在本实施例的一些可选的实现方式中,上述标记点确定模块可以包括:标记点确定子模块(图中未示出),被配置成确定点云数据在三维空间的角度信息,根据上述角度信息确定上述无人驾驶车辆在三维空间的标记点。
在本实施例的一些可选的实现方式中,上述位置点确定子单元可以包括:位置点设置模块(图中未示出),被配置成将上述标记点设置为对应的每组图像点云中的初始图像的位置点。
在本实施例的一些可选的实现方式中,上述目标点云数据获取子单元可以包括:目标点云数据获取模块(图中未示出),被配置成在三维空间的上述标记点处获取目标点云数据。
在本实施例的一些可选的实现方式中,上述修正参数获取单元503可以包括:特征点集合获取子单元(图中未示出)、点云特征数据确定子单元(图中未示出)和修正参数确定子单元(图中未示出)。其中,特征点集合获取子单元被配置成从初始图像中获取特征点集合;点云特征数据确定子单元被配置成确定上述目标点云数据中对应上述特征点集合的至少一个点云特征数据;修正参数确定子单元被配置成根据上述至少一个点云特征数据之间的位置关系和角度关系,确定上述相机的修正参数。
本实施例还提供了一种电子设备,包括:一个或多个处理器;存储器,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器执行上述的用于标定相机的方法。
本实施例还提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现上述的用于标定相机的方法。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如,图1中的服务器105)的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开的实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取图像点云序列,其中,上述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;确定上述图像点云序列中的每组图像点云对应的上述初始图像的目标点云数据;将目标点云数据与上述图像点云序列中对应的初始图像进行匹配,确定上述相机的修正参数。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括图像点云序列获取单元、目标点云数据确定单元和修正参数获取单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,修正参数获取单元还可以被描述为“用于获取相机的修正参数的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种用于标定相机的方法,包括:
获取图像点云序列,其中,所述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;
确定所述图像点云序列中的每组图像点云对应的所述初始图像的目标点云数据,包括:根据所述图像点云序列确定所述无人驾驶车辆的实际行驶轨迹;确定所述实际行驶轨迹上对应所述图像点云序列中的每组图像点云中的初始图像的位置点,得到对应所述图像点云序列的位置点序列;对于所述位置点序列中的位置点,在该位置点处获取对应所述初始图像的目标点云数据;
将目标点云数据与所述图像点云序列中对应的初始图像进行匹配,确定所述相机的修正参数。
2.根据权利要求1所述的方法,其中,所述图像点云序列的采集方式为:无人驾驶车辆沿直线匀速行驶,安装在无人驾驶车辆上的所述相机间隔设定时间采集图像,安装在无人驾驶车辆上的雷达间隔所述设定时间采集点云数据。
3.根据权利要求1所述的方法,其中,所述根据所述图像点云序列确定所述无人驾驶车辆的实际行驶轨迹,包括:
根据所述图像点云序列中的每组图像点云包含的点云数据确定所述无人驾驶车辆在三维空间的标记点,得到对应所述点云数据序列的标记点序列;
按照标记点在所述标记点序列内的排序对标记点进行拟合,得到所述无人驾驶车辆的实际行驶轨迹。
4.根据权利要求3所述的方法,其中,所述根据所述图像点云序列中的每组图像点云包含的点云数据确定所述无人驾驶车辆在三维空间的标记点,包括:
确定点云数据在三维空间的角度信息,根据所述角度信息确定所述无人驾驶车辆在三维空间的标记点。
5.根据权利要求3所述的方法,其中,所述确定所述实际行驶轨迹上对应所述图像点云序列中的每组图像点云中的初始图像的位置点,包括:
将所述标记点设置为对应的每组图像点云中的初始图像的位置点。
6.根据权利要求5所述的方法,其中,所述在该位置点处获取对应所述初始图像的目标点云数据,包括:
在三维空间的所述标记点处获取目标点云数据。
7.根据权利要求1至6任意一项所述的方法,其中,所述将目标点云数据与所述图像点云序列中对应的初始图像进行匹配,确定所述相机的修正参数,包括:
从初始图像中获取特征点集合;
确定所述目标点云数据中对应所述特征点集合的至少一个点云特征数据;
根据所述至少一个点云特征数据之间的位置关系和角度关系,确定所述相机的修正参数。
8.一种用于标定相机的装置,包括:
图像点云序列获取单元,被配置成获取图像点云序列,其中,所述图像点云序列包括至少一组同一时刻采集的初始图像和点云数据,初始图像由安装在无人驾驶车辆上的相机采集,点云数据由安装在无人驾驶车辆上的雷达采集;
目标点云数据确定单元,被配置成确定所述图像点云序列中的每组图像点云对应的所述初始图像的目标点云数据;
修正参数获取单元,被配置成将目标点云数据与所述图像点云序列中对应的初始图像进行匹配,确定所述相机的修正参数;
所述目标点云数据确定单元包括:
实际行驶轨迹确定子单元,被配置成根据所述图像点云序列确定所述无人驾驶车辆的实际行驶轨迹;
位置点确定子单元,被配置成确定所述实际行驶轨迹上对应所述图像点云序列中的每组图像点云中的初始图像的位置点,得到对应所述图像点云序列的位置点序列;
目标点云数据获取子单元,被配置成对于所述位置点序列中的位置点,在该位置点处获取对应所述初始图像的目标点云数据。
9.根据权利要求8所述的装置,其中,所述图像点云序列的采集方式为:无人驾驶车辆沿直线匀速行驶,安装在无人驾驶车辆上的所述相机间隔设定时间采集图像,安装在无人驾驶车辆上的雷达间隔所述设定时间采集点云数据。
10.根据权利要求8所述的装置,其中,所述实际行驶轨迹确定子单元包括:
标记点确定模块,被配置成根据所述图像点云序列中的每组图像点云包含的点云数据确定所述无人驾驶车辆在三维空间的标记点,得到对应所述点云数据序列的标记点序列;
实际行驶轨迹拟合模块,被配置成按照标记点在所述标记点序列内的排序对标记点进行拟合,得到所述无人驾驶车辆的实际行驶轨迹。
11.根据权利要求10所述的装置,其中,所述标记点确定模块包括:
标记点确定子模块,被配置成确定点云数据在三维空间的角度信息,根据所述角度信息确定所述无人驾驶车辆在三维空间的标记点。
12.根据权利要求10所述的装置,其中,所述位置点确定子单元包括:
位置点设置模块,被配置成将所述标记点设置为对应的每组图像点云中的初始图像的位置点。
13.根据权利要求12所述的装置,其中,所述目标点云数据获取子单元包括:
目标点云数据获取模块,被配置成在三维空间的所述标记点处获取目标点云数据。
14.根据权利要求8至13任意一项所述的装置,其中,所述修正参数获取单元包括:
特征点集合获取子单元,被配置成从初始图像中获取特征点集合;
点云特征数据确定子单元,被配置成确定所述目标点云数据中对应所述特征点集合的至少一个点云特征数据;
修正参数确定子单元,被配置成根据所述至少一个点云特征数据之间的位置关系和角度关系,确定所述相机的修正参数。
15.一种电子设备,包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行权利要求1至7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910890571.XA CN110619666B (zh) | 2019-09-20 | 2019-09-20 | 用于标定相机的方法及装置 |
JP2020036469A JP6967098B2 (ja) | 2019-09-20 | 2020-03-04 | カメラをキャリブレーションするための方法及び装置 |
EP20165601.4A EP3796262B1 (en) | 2019-09-20 | 2020-03-25 | Method and apparatus for calibrating camera |
US16/914,121 US11694359B2 (en) | 2019-09-20 | 2020-06-26 | Method and apparatus for calibrating camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910890571.XA CN110619666B (zh) | 2019-09-20 | 2019-09-20 | 用于标定相机的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110619666A CN110619666A (zh) | 2019-12-27 |
CN110619666B true CN110619666B (zh) | 2022-05-27 |
Family
ID=68923678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910890571.XA Active CN110619666B (zh) | 2019-09-20 | 2019-09-20 | 用于标定相机的方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11694359B2 (zh) |
EP (1) | EP3796262B1 (zh) |
JP (1) | JP6967098B2 (zh) |
CN (1) | CN110619666B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11474193B2 (en) | 2020-12-09 | 2022-10-18 | Here Global B.V. | Camera calibration for localization |
CN113516687A (zh) * | 2021-07-09 | 2021-10-19 | 东软睿驰汽车技术(沈阳)有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN113643321A (zh) * | 2021-07-30 | 2021-11-12 | 北京三快在线科技有限公司 | 一种无人驾驶设备的传感器数据采集方法及装置 |
CN114415489B (zh) * | 2021-12-02 | 2023-09-22 | 北京罗克维尔斯科技有限公司 | 一种车载传感器时间同步方法、装置、设备和介质 |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6946978B2 (en) * | 2002-04-25 | 2005-09-20 | Donnelly Corporation | Imaging system for vehicle |
US8521411B2 (en) * | 2004-06-03 | 2013-08-27 | Making Virtual Solid, L.L.C. | En-route navigation display method and apparatus using head-up display |
AU2007361324A1 (en) * | 2007-11-07 | 2009-05-14 | Tele Atlas B.V. | Method of and arrangement for mapping range sensor data on image sensor data |
DE102012202916A1 (de) * | 2012-02-27 | 2013-08-29 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
US9221396B1 (en) * | 2012-09-27 | 2015-12-29 | Google Inc. | Cross-validating sensors of an autonomous vehicle |
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
US9215382B1 (en) * | 2013-07-25 | 2015-12-15 | The United States Of America As Represented By The Secretary Of The Navy | Apparatus and method for data fusion and visualization of video and LADAR data |
JP2016057108A (ja) | 2014-09-08 | 2016-04-21 | 株式会社トプコン | 演算装置、演算システム、演算方法およびプログラム |
US10126141B2 (en) * | 2016-05-02 | 2018-11-13 | Google Llc | Systems and methods for using real-time imagery in navigation |
US10416682B2 (en) * | 2016-07-29 | 2019-09-17 | Faraday & Future Inc. | Semi-automated driving using pre-recorded route |
US11119486B2 (en) * | 2016-09-13 | 2021-09-14 | Ford Global Technologies, Llc | Methods and apparatus to monitor and control mobility vehicles |
JP6305501B2 (ja) * | 2016-12-13 | 2018-04-04 | 三菱電機株式会社 | キャリブレーション方法、プログラムおよびコンピュータ |
WO2018155159A1 (ja) * | 2017-02-24 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 遠隔映像出力システム、及び遠隔映像出力装置 |
WO2018180247A1 (ja) * | 2017-03-28 | 2018-10-04 | パイオニア株式会社 | 出力装置、制御方法、プログラム及び記憶媒体 |
DE102017109039A1 (de) * | 2017-04-27 | 2018-10-31 | Sick Ag | Verfahren zur Kalibrierung einer Kamera und eines Laserscanners |
EP3401182B1 (en) * | 2017-05-09 | 2020-09-09 | Veoneer Sweden AB | Apparatus for lane detection |
US10866101B2 (en) * | 2017-06-13 | 2020-12-15 | Tusimple, Inc. | Sensor calibration and time system for ground truth static scene sparse flow generation |
EP3438776B1 (en) * | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
NL2019756B1 (nl) * | 2017-10-18 | 2019-04-25 | Johannes Smit Stephan | Systeem voor het aansturen van een op basis van stuur- en versnellingswaarden bestuurbaar autonoom rijdend voertuig, autonoom rijdend voertuig voorzien van een dergelijk systeem en werkwijze voor het trainen van een dergelijk systeem. |
US20190120934A1 (en) * | 2017-10-19 | 2019-04-25 | GM Global Technology Operations LLC | Three-dimensional alignment of radar and camera sensors |
WO2019079211A1 (en) * | 2017-10-19 | 2019-04-25 | DeepMap Inc. | LIDAR-CAMERA CALIBRATION TO GENERATE HIGH DEFINITION MAPS |
US11062461B2 (en) * | 2017-11-16 | 2021-07-13 | Zoox, Inc. | Pose determination from contact points |
US11066080B2 (en) * | 2017-12-25 | 2021-07-20 | Hitachi Automotive Systems, Ltd. | Vehicle control device and electronic control system |
JP6926324B2 (ja) * | 2018-04-18 | 2021-08-25 | 日立Astemo株式会社 | 電子制御装置 |
RU2751382C1 (ru) * | 2018-05-31 | 2021-07-13 | Ниссан Норт Америка, Инк. | Планирование траектории |
CN110609274B (zh) * | 2018-06-15 | 2022-07-01 | 杭州海康威视数字技术股份有限公司 | 一种测距方法、装置及系统 |
US10754025B2 (en) * | 2018-06-20 | 2020-08-25 | Rapsodo Pte. Ltd. | Radar and camera-based data fusion |
US11422259B2 (en) * | 2018-06-28 | 2022-08-23 | Zoox, Inc. | Multi-resolution maps for localization |
US10733761B2 (en) * | 2018-06-29 | 2020-08-04 | Zoox, Inc. | Sensor calibration |
US10298910B1 (en) * | 2018-06-29 | 2019-05-21 | Zoox, Inc. | Infrastructure free intrinsic calibration |
US11067693B2 (en) * | 2018-07-12 | 2021-07-20 | Toyota Research Institute, Inc. | System and method for calibrating a LIDAR and a camera together using semantic segmentation |
US11277956B2 (en) * | 2018-07-26 | 2022-03-22 | Bear Flag Robotics, Inc. | Vehicle controllers for agricultural and industrial applications |
US11105905B2 (en) * | 2018-11-30 | 2021-08-31 | Lyft, Inc. | LiDAR and camera rotational position calibration using multiple point cloud comparisons |
CN111314597B (zh) * | 2018-12-11 | 2021-07-23 | 北京小米移动软件有限公司 | 终端、对焦方法及装置 |
US10408939B1 (en) * | 2019-01-31 | 2019-09-10 | StradVision, Inc. | Learning method and learning device for integrating image acquired by camera and point-cloud map acquired by radar or LiDAR corresponding to image at each of convolution stages in neural network and testing method and testing device using the same |
CN109949371A (zh) * | 2019-03-18 | 2019-06-28 | 北京智行者科技有限公司 | 一种用于激光雷达和相机数据的标定方法 |
US11256268B1 (en) * | 2019-03-29 | 2022-02-22 | Zoox, Inc. | Techniques for authorizing vehicle control systems |
US11049339B2 (en) * | 2019-03-29 | 2021-06-29 | Wipro Limited | Method and system for validating odometer performance in an autonomous vehicle in real-time |
US10928508B2 (en) * | 2019-04-12 | 2021-02-23 | Ford Global Technologies, Llc | Camera and radar fusion |
US11112490B2 (en) * | 2019-04-15 | 2021-09-07 | Argo AI, LLC | Apparatus for joint calibration of radar and camera systems for autonomous vehicle applications |
US10984543B1 (en) * | 2019-05-09 | 2021-04-20 | Zoox, Inc. | Image-based depth data and relative depth data |
CN109920011B (zh) * | 2019-05-16 | 2020-01-10 | 长沙智能驾驶研究院有限公司 | 激光雷达与双目摄像头的外参标定方法、装置及设备 |
US11557061B2 (en) * | 2019-06-28 | 2023-01-17 | GM Cruise Holdings LLC. | Extrinsic calibration of multiple vehicle sensors using combined target detectable by multiple vehicle sensors |
US11778934B2 (en) * | 2019-07-02 | 2023-10-10 | Bear Flag Robotics, Inc. | Agricultural lane following |
US20220259936A1 (en) * | 2019-07-03 | 2022-08-18 | Bn Technology Holdings Inc. | Modular downhole tool reservoir system |
US10841483B1 (en) * | 2019-07-11 | 2020-11-17 | Denso International America, Inc. | System and method for calibrating at least one camera and a light detection and ranging sensor |
US11146783B2 (en) * | 2019-08-16 | 2021-10-12 | GM Cruise Holdings, LLC | Partial calibration target detection for improved vehicle sensor calibration |
-
2019
- 2019-09-20 CN CN201910890571.XA patent/CN110619666B/zh active Active
-
2020
- 2020-03-04 JP JP2020036469A patent/JP6967098B2/ja active Active
- 2020-03-25 EP EP20165601.4A patent/EP3796262B1/en active Active
- 2020-06-26 US US16/914,121 patent/US11694359B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021051720A (ja) | 2021-04-01 |
EP3796262B1 (en) | 2022-11-09 |
US11694359B2 (en) | 2023-07-04 |
JP6967098B2 (ja) | 2021-11-17 |
EP3796262A1 (en) | 2021-03-24 |
CN110619666A (zh) | 2019-12-27 |
US20210090296A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110619666B (zh) | 用于标定相机的方法及装置 | |
US11054518B2 (en) | Method and apparatus for determining obstacle speed | |
CN108413975B (zh) | 地图获取方法、系统、云处理器及车辆 | |
CN107481292B (zh) | 车载摄像头的姿态误差估计方法和装置 | |
CN109613543B (zh) | 激光点云数据的修正方法、装置、存储介质和电子设备 | |
US9207677B2 (en) | Vehicle positioning method and its system | |
CN110197615B (zh) | 用于生成地图的方法及装置 | |
CN111461981B (zh) | 点云拼接算法的误差估计方法和装置 | |
US20180224284A1 (en) | Distributed autonomous mapping | |
US11002553B2 (en) | Method and device for executing at least one measure for increasing the safety of a vehicle | |
CN110658503B (zh) | 用于修正雷达的测量角度的方法及装置 | |
CN111060132B (zh) | 行车定位坐标的标定方法和装置 | |
JP6278791B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム | |
CN111353453B (zh) | 用于车辆的障碍物检测方法和装置 | |
CN114820749A (zh) | 无人车井下定位方法、系统、设备及介质 | |
CN111461980B (zh) | 点云拼接算法的性能估计方法和装置 | |
CN108297795A (zh) | 一种电动车的车道识别系统 | |
CN111340880A (zh) | 用于生成预测模型的方法和装置 | |
CN115542277B (zh) | 一种雷达法线标定方法、装置、系统、设备和存储介质 | |
CN111401423A (zh) | 用于自动驾驶车辆的数据处理方法和装置 | |
CN112113580A (zh) | 车辆定位的方法、装置和汽车 | |
US10872477B2 (en) | Method and device for uploading data of a motor vehicle | |
US20200374705A1 (en) | Information processing device, information processing method, and program | |
JP2022095589A (ja) | 仮想情報がオーバーレイされたポータブルディスプレイデバイス | |
CN111401194B (zh) | 用于自动驾驶车辆的数据处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211012 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 2 / F, baidu building, 10 Shangdi 10th Street, Haidian District, Beijing 100085 Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |