CN113177975A - 基于球幕相机及激光雷达的深度计算方法及三维建模方法 - Google Patents
基于球幕相机及激光雷达的深度计算方法及三维建模方法 Download PDFInfo
- Publication number
- CN113177975A CN113177975A CN202110496155.9A CN202110496155A CN113177975A CN 113177975 A CN113177975 A CN 113177975A CN 202110496155 A CN202110496155 A CN 202110496155A CN 113177975 A CN113177975 A CN 113177975A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- dome camera
- laser radar
- cloud data
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000001914 filtration Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及数据处理技术领域,提供了基于球幕相机及激光雷达的深度计算方法及三维建模方法,该方法包括对球幕相机及激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。通过本发明的方法可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于球幕相机及激光雷达的深度计算方法及三维建模方法。
背景技术
在使用球幕相机进行三维建模的过程中,因牵涉到即时定位与地图构建(SLAM)技术,球幕相机一直进行视频流的拍摄需要处理的数据量比较大,这样会给硬件造成非常大的负担,产生较大的发热现象,约几分钟到十几分钟电量将耗尽。其次,如果直接使用球幕相机进行空间定位,就必须利用球幕相机拍摄的视频流的帧图片,然后进行SLAM定位,但是这样的计算量大,占用大量的CPU资源,从而会增加巨大的电量消耗。此外,使用这种定位方式,球幕相机拍摄的视频流的帧图片之间在进行SLAM定位之前需要进行拼接,会产生畸变。
为此,在即时定位与地图构建(SLAM)技术的基础上,发展出了基于视觉的即时定位与地图构建(VSLAM)技术。VSLAM的优点是它所利用的丰富纹理信息。例如两块尺寸相同内容却不同的广告牌,基于点云的激光SLAM算法无法区别他们,而视觉则可以轻易分辨。这带来了重定位、场景分类上无可比拟的巨大优势。同时,视觉信息可以较为容易的被用来跟踪和预测场景中的动态目标,如行人、车辆等,对于在复杂动态场景中的应用这是至关重要的。第三,视觉的投影模型理论上可以让无限远处的物体都进入视觉画面中,在合理的配置下(如长基线的双目相机)可以进行大场景的定位与地图构建。然而,基于视觉的即时定位与地图构建(VSLAM)技术在遇到白墙、玻璃等特征点比较少的情况下会出现跟踪丢失的情况,深度值数据计算不够准确,导致创建的三维模型得到的景象准确性和可靠性不佳。
发明内容
本发明的主要目的在于提供一种基于球幕相机及激光雷达的深度计算方法及三维建模方法,可以优化出更为精确的深度值数据,使三维建模的精度更高。
为实现上述目的,本发明提供的一种基于球幕相机及激光雷达的深度计算方法,该方法包括:
对所述球幕相机及所述激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;
通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;
根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
优选的,对球幕相机及激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;
通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;
根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
优选的,所述根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下的步骤,具体包括:
将所述激光雷达获取的点云数据对应的投射到所述球幕相机坐标系下,其投射关系为P3d_sphere=R*P3d_Lidar+T;
其中,R和T为所述激光雷达相对于所述球幕相机的外参,P3d_sphere为球幕相机上对应的3D点,P3d_Lidar为激光雷达对应的3D点;
将P3d_sphere点归一化到单位球上,记为点P3d_sphere_norm,再根据球幕相机成像模型将点P3d_sphere_norm投射到二维图像上的(u,v)点。
优选的,计算所述点云数据中各个三维点的深度值,具体包括根据所述投射关系计算深度值,所述P3d_sphere点对应的深度值的计算过程为:
其中,P3d_sphere.x、P3d_sphere.y、P3d_sphere.z分别为P3d_sphere在球幕相机坐标系X、Y、Z轴上的坐标值。
优选的,所述通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据步骤之后,该方法还包括滤波步骤:
对所述点云数据进行滤波处理,以去除所述点云数据中的离群点和噪点。
优选的,所述对所述点云数据进行滤波处理的步骤,具体包括:
获取所述激光雷达返回的噪点,计算每个所述噪点的置信度;及
去除置信度超过预设阈值的噪点,得到滤波后的点云数据。
本发明还提供一种基于球幕相机及激光雷达的三维建模方法,应用上述的基于球幕相机及激光雷达的深度值进行三维建模,三维建模步骤具体包括:
通过预先建立的球幕相机模型将所述点云数据对应的球幕相机坐标系下的深度值与所述二维全景图中各个二维点对应,得到球幕坐标系下的二维深度图;
根据所述二维深度图及二维全景图进行数字化建模,生成三维模型;
根据所述二维全景图中的颜色信息,自动对所述三维模型进行贴图。
本发明还提供一种基于球幕相机及激光雷达的深度计算装置,包括:
标定模块,用于对所述球幕相机及所述激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;
获取模块,用于通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;
计算模块,用于根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
本发明还提供一种基于球幕相机及激光雷达的三维建模装置,应用上述基于球幕相机及激光雷达的深度计算装置计算的深度值进行三维建模,所述三维建模装置还包括三维建模模块,用于通过预先建立的球幕相机模型将所述点云数据对应的球幕相机坐标系下的深度值与所述二维全景图中各个二维点对应,得到球幕坐标系下的二维深度图,根据所述二维深度图及二维全景图进行数字化建模,生成三维模型,根据所述二维全景图中的颜色信息,自动对所述三维模型进行贴图。
为实现上述目的,本发明还进一步提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述的基于球幕相机及激光雷达的深度计算方法。
为实现上述目的,本发明进一步提供一种计算机可读存储介质,所述计算机可读存储介质上存储有用于基于球幕相机及激光雷达的深度计算方法程序,所述用于基于球幕相机及激光雷达的深度计算方法程序可被一个或者多个处理器执行,以实现如上所述的基于球幕相机及激光雷达的深度计算方法的步骤。
本发明提出的基于球幕相机及激光雷达的深度计算方法、装置、设备及介质,通过对球幕相机及激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。通过本发明的方法可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高。
附图说明
图1为本发明一实施例提供的基于球幕相机及激光雷达的深度计算方法的流程示意图;
图2为本发明一实施例提供的基于球幕相机及激光雷达的深度计算装置的模块示意图;
图3为本发明一实施例提供的基于球幕相机及激光雷达的深度计算方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参附图做进一步说明。
具体实施方式
为了使本发明的目的、技术本实施例及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术本实施例可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术本实施例的结合出现相互矛盾或无法实现时应当认为这种技术本实施例的结合不存在,也不在本发明要求的保护范围之内。
本发明提供一种基于球幕相机及激光雷达的深度计算方法。参照图1所示,为本发明一实施例提供的基于球幕相机及激光雷达的深度计算方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
该方法包括:
S110,对球幕相机及激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参。
在本实施例中,利用标定板对球幕相机及激光雷达进行标定,标定板为具有M×N个角点的棋盘格标定板,角点为标定板上棋盘格的交点。
通过基于ArUco现实增强库的提取技术从标定板上采集特征点在相机坐标系的坐标,通过基于激光雷达反射强度差异从标定板上采集特征点在激光雷达坐标系的坐标,通过迭代最近点算法进行相机-激光雷达相对外部参数标定并得到变换矩阵,最后通过对变换矩阵进行坐标系统一,得到激光雷达相对于球幕相机的外参。
S120,通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据。
在本实施例中,通过球幕相机对待测目标进行实时扫描,获取二维全景图,在该二维全景图上,当前被扫描的待测目标的轮廓边界显现出来。通过激光雷达获取待测目标的点云数据,即获取待测目标的三维数据,等待后续使用。
S130,根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
在本实施例中,将所述激光雷达获取的点云数据对应的投射到所述球幕相机坐标系下,其关系为P3d_sphere=R*P3d_Lidar+T;
其中,R和T为所述激光雷达相对于所述球幕相机的外参,P3d_sphere为球幕相机上对应的3D点,P3d_Lidar为激光雷达对应的3D点;
将P3d_sphere点归一化到单位球上,记为点P3d_sphere_norm,再根据球幕相机成像模型将点P3d_sphere_norm投射到二维图像上的(u,v)点。从而在球幕相机坐标系下,通过球幕相机模型,获取点云数据中的各3D点对应到全景图上的2D点坐标;球幕相机模型指球幕相机的成像模型,描述了相机坐标系的3D点到图像坐标系的2D点之间的对应关系。
计算所述点云数据中各个三维点的深度值,具体包括根据所述投射关系计算深度值,所述P3d_sphere点对应的深度值的计算过程为:
其中,P3d_sphere.x、P3d_sphere.y、P3d_sphere.z分别为P3d_sphere在球幕相机坐标系X、Y、Z轴上的坐标值,计算各3D点的深度值后再将各3D点对应的深度值关联到各3D点对应的全景图上的2D点上。通过本发明的计算方法可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高。
更进一步的,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据步骤之后,还包括滤波步骤:
对所述点云数据进行滤波处理,以去除所述点云数据中的离群点和噪点。
在本实施例中,对点云数据进行滤波处理的具体步骤包括:
获取激光雷达返回的噪点,计算每个噪点的置信度;及
去除置信度超过预设阈值的噪点,得到滤波后的点云数据。
需要说明的是,本发明还可以通过统计滤波器去除点云数据中离群点的方式对点云数据滤波。
在另一实施例中,提供一种基于球幕相机及激光雷达的三维建模方法,应用上述实施例的基于球幕相机及激光雷达的深度值进行三维建模,包括三维建模步骤:
通过预先建立的球幕相机模型将所述点云数据对应的球幕相机坐标系下的深度值与所述二维全景图中各个二维点对应,得到球幕坐标系下的二维深度图;
根据所述二维深度图及二维全景图进行数字化建模,生成三维模型;
根据所述二维全景图中的颜色信息,自动对所述三维模型进行贴图。
本实施例将三维点的深度值数据对应对应到全景图上对应的二维点,由球幕相机相机模型作为依据。因球幕相机自身无法获得真实的深度值,采用的是视觉深度估计的方法,而激光雷达获得真实的深度值,且在球幕相机的环境下提炼,可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高。
在其他的实施例中,预先建立的球幕相机模型基于以下算法得到:
步骤一:P3d_sphere=R*P3d_Lidar+T(将三维点转到球幕相机坐标系中)
步骤二:计算二维深度图上对应的经纬度:
步骤三:获取二维深度图上对应的坐标点(u,v):
ω为二维深度图宽,为二维深度图高H。
根据二维深度图及二维全景图进行数字化建模,生成三维模型。通过激光雷达的实时扫描定位,计算深度是通过激光雷达获取的激光点云进行计算,基于本发明创建的三维模型不会发生模型畸变,通过激光雷达获得真实的深度值,且在球幕相机的环境下提炼,本实施例采用一个球幕相机单元,可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高,创建的三维模型的景象更加准确和可靠。
自动对三维模型进行贴图,将在空间某一位置的球幕相机拍摄到的二维全景图贴到三维模型对应的位置上,类似于从眼睛看到一堵墙是白色,就把白色放到模型对应的墙上。这里的眼睛相当于球幕相机镜头,球幕相机在某一位置将空间中的颜色信息拍摄保存下来,在建模的时候,通过反投影将二维全景图中的颜色信息再映射回去,建立三维模型。
如图2所示,是本发明基于球幕相机及激光雷达的深度计算装置100的功能模块图。
本发明所述基于球幕相机及激光雷达的深度计算装置100可以安装于电子设备中。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
标定模块110,用于对所述球幕相机及所述激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参。
在本实施例中,利用标定板对球幕相机及激光雷达进行标定,标定板为具有M×N个角点的棋盘格标定板,角点为标定板上棋盘格的交点。
通过基于ArUco现实增强库的提取技术从标定板上采集特征点在相机坐标系的坐标,通过基于激光雷达反射强度差异从标定板上采集特征点在激光雷达坐标系的坐标,通过迭代最近点算法进行相机-激光雷达相对外部参数标定并得到变换矩阵,最后通过对变换矩阵进行坐标系统一,得到激光雷达相对于球幕相机的外参。
获取模块120,用于通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据。
在本实施例中,通过球幕相机对待测目标进行实时扫描,获取二维全景图,在该二维全景图上,当前被扫描的待测目标的轮廓边界显现出来。通过激光雷达获取待测目标的点云数据,即获取待测目标的三维数据,等待后续使用。
计算模块130,用于根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
在本实施例中,将所述激光雷达获取的点云数据对应的投射到所述球幕相机坐标系下,其关系为P3d_sphere=R*P3d_Lidar+T;
其中,R和T为所述激光雷达相对于所述球幕相机的外参,P3d_sphere为球幕相机上对应的3D点,P3d_Lidar为激光雷达对应的3D点;
将P3d_sphere点归一化到单位球上,记为点P3d_sphere_norm,再根据球幕相机成像模型将点P3d_sphere_norm投射到二维图像上的(u,v)点。
计算所述点云数据中各个三维点的深度值,具体包括根据所述投射关系,所述P3d_sphere点对应的深度值的计算过程为:
其中,P3d_sphere.x、P3d_sphere.y、P3d_sphere.z分别为P3d_sphere在球幕相机坐标系X、Y、Z轴上的坐标值。
在另一实施例中,所述基于球幕相机及激光雷达的深度计算装置还包括滤波模块,用于对所述点云数据进行滤波处理,以去除所述点云数据中的离群点和噪点。
在本实施例中,对点云数据进行滤波处理的具体步骤包括:
获取激光雷达返回的噪点,计算每个噪点的置信度;及
去除置信度超过预设阈值的噪点,得到滤波后的点云数据。
在另一实施例中,还提供一种基于球幕相机及激光雷达的三维建模装置,应用上述的基于球幕相机及激光雷达的深度计算装置计算的深度值进行三维建模,该装置还包括三维建模模块,用于通过预先建立的球幕相机模型将所述点云数据对应的球幕相机坐标系下的深度值与所述二维全景图中各个二维点对应,得到球幕坐标系下的二维深度图,根据所述二维深度图及二维全景图进行数字化建模,生成三维模型,根据所述二维全景图中的颜色信息,自动对所述三维模型进行贴图。本实施例将三维点的深度值数据对应对应到全景图上对应的二维点,由球幕相机相机模型作为依据。因球幕相机自身无法获得真实的深度值,采用的是视觉深度估计的方法,而激光雷达获得真实的深度值,且在球幕相机的环境下提炼,可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高。
在另外的实施例中,预先建立的球幕相机模型基于以下算法得到:
步骤一:通过P3d_sphere=R*P3d_Lidar+T,将三维点转到球幕相机坐标系中;
步骤二:计算二维深度图上对应的经纬度:
步骤三:获取二维深度图上对应的坐标点(u,v):
ω为二维深度图宽,为二维深度图高H。
根据二维深度图及二维全景图进行数字化建模,生成三维模型。通过激光雷达的实时扫描定位,计算深度是通过激光雷达获取的激光点云进行计算,基于本发明创建的三维模型不会发生模型畸变,通过激光雷达获得真实的深度值,且在球幕相机的环境下提炼,本实施例采用一个球幕相机单元,可以优化出更为精确的深度值数据,能够帮助球幕相机依靠真实的深度值进行二维图像到三维建模的转化,使三维建模的精度更高,创建的三维模型的景象更加准确和可靠。
自动对三维模型进行贴图,将在空间某一位置的球幕相机拍摄到的二维全景图贴到三维模型对应的位置上,类似于从眼睛看到一堵墙是白色,就把白色放到模型对应的墙上。这里的眼睛相当于球幕相机镜头,球幕相机在某一位置将空间中的颜色信息拍摄保存下来,在建模的时候,通过反投影将二维全景图中的颜色信息再映射回去,建立三维模型。
如图3所示,是本发明实现基于球幕相机及激光雷达的深度计算方法的电子设备的结构示意图。
所述电子设备1可以包括处理器12、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器12上运行的计算机程序,如用于基于球幕相机及激光雷达的深度计算方法程序10。
其中,所述存储器11至少包括一种类型的可读存储介质,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如用于基于球幕相机及激光雷达的深度计算方法程序10的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器12在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种判断芯片的组合等。所述处理器12是所述电子设备的判断核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如用于基于球幕相机及激光雷达的深度计算方法程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、判断总线等。所述总线被设置为实现所述存储器11以及至少一个处理器12等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器12逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口13,可选地,所述网络接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的用于基于球幕相机及激光雷达的深度计算方法程序10是多个指令的组合,在所述处理器12中运行时,可以实现基于球幕相机及激光雷达的深度计算方法的步骤。
具体地,所述处理器12对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于球幕相机及激光雷达的深度计算方法,其特征在于,包括:
对球幕相机及激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;
通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;
根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
2.如权利要求1所述的基于球幕相机及激光雷达的深度计算方法,其特征在于,所述根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下的步骤,具体包括:
将所述激光雷达获取的点云数据对应的投射到所述球幕相机坐标系下,其投射关系为P3d_sphere=R*P3d_Lidar+T;
其中,R和T为所述激光雷达相对于所述球幕相机的外参,P3d_sphere为球幕相机上对应的3D点,P3d_Lidar为激光雷达对应的3D点;
将P3d_sphere点归一化到单位球上,记为点P3d_sphere_norm,再根据球幕相机成像模型将点P3d_sphere_norm投射到二维图像上的(u,v)点。
4.如权利要求1所述的基于球幕相机及激光雷达的深度计算方法,其特征在于,所述通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据步骤之后,该方法还包括滤波步骤:
对所述点云数据进行滤波处理,以去除所述点云数据中的离群点和噪点。
5.如权利要求4所述的基于球幕相机及激光雷达的深度计算方法,其特征在于,所述对所述点云数据进行滤波处理的步骤,具体包括:
获取所述激光雷达返回的噪点,计算每个所述噪点的置信度;及
去除置信度超过预设阈值的噪点,得到滤波后的点云数据。
6.一种基于球幕相机及激光雷达的三维建模方法,其特征在于,应用权利要求1-5任一项所述的基于球幕相机及激光雷达的深度值进行三维建模,三维建模步骤具体包括:
通过预先建立的球幕相机模型将所述点云数据对应的球幕相机坐标系下的深度值与所述二维全景图中各个二维点对应,得到球幕坐标系下的二维深度图;
根据所述二维深度图及二维全景图进行数字化建模,生成三维模型;
根据所述二维全景图中的颜色信息,自动对所述三维模型进行贴图。
7.一种基于球幕相机及激光雷达的深度计算装置,其特征在于,包括:
标定模块,用于对所述球幕相机及所述激光雷达进行标定,获取所述激光雷达相对于所述球幕相机的外参;
获取模块,用于通过所述球幕相机获取待测目标的二维全景图,通过所述激光雷达实时扫描待测目标获取所述待测目标的点云数据;
计算模块,用于根据所述外参将所述待测目标的点云数据投射到球幕相机坐标系下,并计算所述点云数据中各个三维点的深度值。
8.一种基于球幕相机及激光雷达的三维建模装置,其特征在于,应用权利要求7所述的基于球幕相机及激光雷达的深度计算装置计算的深度值进行三维建模,所述三维建模装置还包括三维建模模块,用于通过预先建立的球幕相机模型将所述点云数据对应的球幕相机坐标系下的深度值与所述二维全景图中各个二维点对应,得到球幕坐标系下的二维深度图,根据所述二维深度图及二维全景图进行数字化建模,生成三维模型,根据所述二维全景图中的颜色信息,自动对所述三维模型进行贴图。
9.一种电子设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1-5中任一项所述的基于球幕相机及激光雷达的深度计算方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1-5中任一项所述的基于球幕相机及激光雷达的深度计算方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110496155.9A CN113177975B (zh) | 2021-05-07 | 2021-05-07 | 基于球幕相机及激光雷达的深度计算方法及三维建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110496155.9A CN113177975B (zh) | 2021-05-07 | 2021-05-07 | 基于球幕相机及激光雷达的深度计算方法及三维建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113177975A true CN113177975A (zh) | 2021-07-27 |
CN113177975B CN113177975B (zh) | 2023-12-05 |
Family
ID=76928461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110496155.9A Active CN113177975B (zh) | 2021-05-07 | 2021-05-07 | 基于球幕相机及激光雷达的深度计算方法及三维建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113177975B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114706070A (zh) * | 2022-02-22 | 2022-07-05 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种基于4d毫米波雷达的自动泊车车位搜索方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102537A (zh) * | 2018-06-25 | 2018-12-28 | 中德人工智能研究院有限公司 | 一种激光雷达和球幕相机结合的三维建模方法和系统 |
CN111127540A (zh) * | 2019-12-25 | 2020-05-08 | 珠海市四维时代网络科技有限公司 | 一种三维虚拟空间自动测距方法及系统 |
KR20210022016A (ko) * | 2019-08-02 | 2021-03-02 | 네이버랩스 주식회사 | 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템 |
-
2021
- 2021-05-07 CN CN202110496155.9A patent/CN113177975B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102537A (zh) * | 2018-06-25 | 2018-12-28 | 中德人工智能研究院有限公司 | 一种激光雷达和球幕相机结合的三维建模方法和系统 |
KR20210022016A (ko) * | 2019-08-02 | 2021-03-02 | 네이버랩스 주식회사 | 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템 |
CN111127540A (zh) * | 2019-12-25 | 2020-05-08 | 珠海市四维时代网络科技有限公司 | 一种三维虚拟空间自动测距方法及系统 |
Non-Patent Citations (2)
Title |
---|
崔岩;: "球幕相机对大型建筑物及场景的三维数字化及其展示手段", 东南文化, no. 1 * |
康国华;张琪;张晗;徐伟证;张文豪;: "基于点云中心的激光雷达与相机联合标定方法研究", 仪器仪表学报, no. 12 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114706070A (zh) * | 2022-02-22 | 2022-07-05 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种基于4d毫米波雷达的自动泊车车位搜索方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113177975B (zh) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
WO2018119889A1 (zh) | 三维场景定位方法和装置 | |
CN108765498A (zh) | 单目视觉跟踪方法、装置及存储介质 | |
CN109934873B (zh) | 标注图像获取方法、装置及设备 | |
CN111161398B (zh) | 一种图像生成方法、装置、设备及存储介质 | |
CN113763478B (zh) | 无人车相机标定方法、装置、设备、存储介质及系统 | |
CN116109765A (zh) | 标注对象的三维渲染方法、装置、计算机设备、存储介质 | |
CN109754463A (zh) | 三维建模融合方法及装置 | |
CN113177975B (zh) | 基于球幕相机及激光雷达的深度计算方法及三维建模方法 | |
CN112634366B (zh) | 位置信息的生成方法、相关装置及计算机程序产品 | |
CN114494582A (zh) | 一种基于视觉感知的三维模型动态更新方法 | |
CN116858215B (zh) | 一种ar导航地图生成方法及装置 | |
CN113793392A (zh) | 一种相机参数标定方法及装置 | |
CN115527000B (zh) | 一种用于无人机倾斜摄影模型批量单体化的方法及装置 | |
CN115880448B (zh) | 基于双目成像的三维测量方法及装置 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
JP2007315777A (ja) | 三次元形状計測システム | |
CN117115434A (zh) | 数据分割装置和方法 | |
CN112634439B (zh) | 一种3d信息展示方法及装置 | |
CN112652056B (zh) | 一种3d信息展示方法及装置 | |
CN114332356A (zh) | 一种虚实画面结合方法和装置 | |
CN109887078B (zh) | 天空绘制方法、装置、设备和介质 | |
CN111145100B (zh) | 动态影像生成方法及系统、计算机装置、及可读存储介质 | |
CN116030228B (zh) | 一种基于web的mr虚拟画面展示方法及装置 | |
CN111105488B (zh) | 成像仿真方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |