CN114972541B - 基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法 - Google Patents
基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法 Download PDFInfo
- Publication number
- CN114972541B CN114972541B CN202210687895.5A CN202210687895A CN114972541B CN 114972541 B CN114972541 B CN 114972541B CN 202210687895 A CN202210687895 A CN 202210687895A CN 114972541 B CN114972541 B CN 114972541B
- Authority
- CN
- China
- Prior art keywords
- laser radar
- dimensional
- binocular camera
- collision
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000004927 fusion Effects 0.000 title claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 238000009434 installation Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 2
- 230000002776 aggregation Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 230000007547 defect Effects 0.000 abstract description 5
- 230000004888 barrier function Effects 0.000 abstract description 3
- 230000008092 positive effect Effects 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013519 translation Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,包括如下步骤:步骤一、双目相机与三维激光雷达的联合标定;步骤二、基于PSMNet的双目视差数据获取;步骤三、基于MV3D‑Net的障碍物检测与立体防撞判断。与现有技术相比,本发明的积极效果是:本发明有效克服了单一传感器所提供的数据特征单一的缺点,将点云数据和视差数据融合,使得被检测区域数据更为丰富,可检测更远和更小的物体,具有更好的抗干扰能力,降低了障碍物的误检率和漏检率,提高了RTG防撞功能的适用性和准确性。
Description
技术领域
本发明涉及一种基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法。
背景技术
目前,现有的轮胎吊起重机(Rubber Tyre Gantry,缩写RTG)的防撞方法主要有:1)基于二维激光雷达的防撞方法;2)基于视觉深度学习的防撞方法;3)基于双目视觉的防撞方法;4)基于激光视觉融合的特征提取防撞方法;其中:
1)基于二维激光雷达的防撞方法,该方法通过以二维激光雷达自身坐标系为基准,根据安装位置预先设定固定的防护区域,并在区域内检测是否存在激光点数据及其特征,进而判断是否存在障碍物以及障碍物所在位置,从而实现防碰撞功能。该方法具备实现简单、便于安装应用等优点。但由于二维激光雷达检测区域为空间平面,因此可防护的障碍物受限,必须足够高且处于检测平面内;另外由于二维激光雷达数据特征单一,易受噪声点影响,环境适应性差,存在误报频繁的问题。
2)基于视觉深度学习的防撞方法,该方法通过摄像机对防护区域进行拍照采集图像数据,然后通过对图像数据进行基于神经网络的深度学习,对障碍物进行检测识别,从而实现防碰撞功能。该方法具有成本低、应用简单同时可实现立体防撞等优点。但该方法基于视觉图像处理的方式,对障碍物位置的识别存在弊端,无法准确获取与障碍物的距离,因此导致其防撞控制策略单一,用户体验感差;同时该方法对地面有积水或油污等的情况,容易识别错误,产生误报。
3)基于双目视觉的防撞方法,该方法基于视差的原理实现获取带有深度信息的图像数据,然后采用基于特征识别的方法对带有深度信息的图像数据进行处理,实现检测区域内障碍物的识别,同时定位出障碍物的位置,进而实现防碰撞功能。但该方法存在检测距离较小、检测精度差、对于较小障碍物容易漏识别等问题,进而影响防撞使用效果。
4)基于激光视觉融合的特征提取防撞方法,该方法通过将点云数据和图像数据融合成RGB-D数据,利用特征提取的方法来检测障碍物,该方法能够克服激光点云特征识别困难、减缓图像数据易受干扰的影响。但是,在特征提取时需要人为设计特征,对于特定的规则物体有效,对于非设计规则的物体特征提取困难,从而限制了该方法的适用性。
基于以上方法存在的缺陷,本发明将三维激光雷达、双目相机作为传感器单元,提出一种基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法。
发明内容
为了克服现有技术的上述缺点,本发明提出了一种基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法。
本发明解决其技术问题所采用的技术方案是:一种基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,包括如下步骤:
步骤一、双目相机与三维激光雷达的联合标定;
步骤二、基于PSMNet的双目视差数据获取;
步骤三、基于MV3D-Net的障碍物检测与立体防撞判断。
与现有技术相比,本发明的积极效果是:
本发明将三维激光雷达和双目相机融合,充分利用点云数据的高精度和双目视差数据高稠密性的特点,通过人为标定之后将两种数据进行融合,从而获得更为稠密的、精确的数据。再通过以深度学习为基础框架的多模态数据检测网络MV3D-Net方法进行自动识别,并自动计算障碍物的三维包围盒信息(3DBox),提高了检测的自动化程度。最后,根据包围盒中心到仪器安装位置的水平距离d,做最终的防撞状态判断。该方法有效克服了单一传感器所提供的数据特征单一的缺点,将点云数据和视差数据融合,使得被检测区域数据更为丰富,可检测更远和更小的物体,具有更好的抗干扰能力,降低了障碍物的误检率和漏检率,提高了RTG防撞功能的适用性和准确性。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1是本发明的整体结构的俯视图;
图2是本发明的三维激光雷达与双目相机标定图;
图3是本发明标定板的结构图。
具体实施方式
本发明的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法:
首先,人为的标定双目相机和三维激光雷达基于安装位置的外参数据,得到旋转矩阵R3×3,和平移矩阵T3×1,并标定各传感器的内参数据。其次,根据实际的激光扫描仪的安装位置和激光点云扫描数据的范围,划分数据检测范围得到初步的感兴趣区域ROI(Regionof Interested),即在包含车道线的基础上再外扩一定范围的区域,利用PSMNet(PyramidStereo Matching Network)立体匹配网络获得双目相机的视差图像数据。再次,将点云数据(X,Y,Z,I)和视差图像数据(R,G,B)作为基本的数据源,制作训练样本数据和测试样本数据,并将训练样本输入到MV3D-Net(Multi-View 3D Object Detection Network forAutonomous Driving)中利用MV3D-Net检测框架,得到MV3D-Net的训练模型参数。最后,根据训练得到的参数模型,检测ROI区域内是否出现障碍物。若出现障碍物,根据实时检测出的3D Box(三维包围框)计算其中心到传感器安装位置的水平距离d,来做最终的防撞判断。具体包括如下步骤:
1)双目相机与三维激光雷达的联合标定,主要是通过人工制作的标定板,标定出双目相机和三维激光雷达的内、外参数信息,为后续的数据融合做准备。
2)基于PSMNet的双目视差数据获取,主要是通过PSMNet框架获取双目相机左、右图像的视差图像数据,获得稠密的视差数据信息。
3)基于MV3D-Net的障碍物检测与立体防撞判断,主要是通过多模数据检测网络,对ROI区域内的数据进行实时的检测,检测是否含有障碍物,若有,则计算其包围盒信息,进而得到障碍物到传感器安装位置的距离d,以此为基准作出防撞判断。
以下将结合附图对本发明方法进行详细描述:
本发明的整体场景结构如图1所示,包括:轮胎吊1、电气房2、轮胎吊车道线3、三维激光扫描仪4、双目视觉相机5、堆场集装箱6、三维激光扫描仪线7、双目视觉相机采集边界线8、轮胎吊电控系统PLC 9、计算机10、报警器11。轮胎吊司机驾驶轮胎吊1在堆场轨道线3内行驶时,位于轮胎吊电气房2内的计算机10实时获取安装在轮胎吊四个门腿上的三维激光扫描仪4的点云数据和双目视觉相机5的双目视差数据。计算机10通过视差计算方法标定好的参数信息做数据融合,然后根据障碍物实时检测框架检测出轮胎吊轨道线3内是否存在障碍物,并将检测信息通过轮胎吊控制系统PLC 9传递出去,若有障碍物,则报警器11进行鸣笛报警,轮胎吊控制系统PLC 9对轮胎吊进行减速控制。若无障碍物,则轮胎吊正常行驶。
基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法具体流程如下:
1.双目相机与三维激光雷达的联合标定
1.1标定中的传感器坐标系
双目相机和三维激光雷达涉及到的四种坐标系统:世界坐标系(Ow-XYZ)、激光雷达坐标系(OL-XLYLZL)、摄像机坐标系(OC-XCYCZC)和图像坐标系包括图像物理坐标系(O′C-X′C Y′C)、以及图像像素坐标系(O-UV)。其中各坐标系之间的转换关系如下:
1.1.1摄像机坐标系与激光雷达坐标系的关系
摄像机坐标系和激光雷达坐标系之间的位姿关系可以根据旋转、平移矩阵计算得到。
其中:R=RzRyRx,T=[tx ty tz]T
其中,R为旋转矩阵,α,β,γ分别为激光雷达坐标系在摄像机坐标系中沿着XC,YC,ZC轴方向的偏转角度。T为平移矩阵,表示两坐标系之间的相对位置关系即激光雷达坐标系的原点在摄像机坐标系中的坐标值。
1.1.2摄像机坐标系和图像坐标系的关系
摄像机坐标系到图像坐标系的转换是从三维空间点坐标到二维平面坐标的转换过程。将三维空间中的一个物点P(XC,YC,ZC)成像到像素平面上的点P′(X′C,Y′C),关系式如下:
P′(X′C,Y′C)点的图像物理坐标与像素坐标(u,v)的转换关系如下:
其中,dx、dy、r、u0、v0为摄像机的内部参数;dx、dy分别为摄像机的单个像素在X′C和Y′C方向上的物理尺寸;r是倾斜比例因子,在一般标准相机中为0;(u0,v0)是图像主点坐标。
1.1.3激光雷达坐标系与图像像素坐标系的关系
由公式(1)、(2)、(3)可以得到激光雷达坐标系和图像像素坐标系的转换关系为:
其中:fx=f/dx和fy=f/dy表示X′C和Y′C轴方向上的等效焦距,通常为定值f。
1.2联合标定算法
本发明中使用的三维激光雷达和双目相机的装置如图2所示,以此来估算旋转矩阵R和平移矩阵T。标定实验中使用到的标定板如图3所示。首先使用图2中的黑白相间的棋盘格标定板对双目相机进行标定,得到双目相机的内外参数。与此同时双目相机和三维激光雷达同时采集标定板中圆孔的位置,以此作为特征点,计算激光雷达坐标系和摄像机坐标系之间的旋转矩阵R和平移矩阵T。具体流程如下:1>首先对双目相机进行标定,获得双目相机的内外参数。2>双目相机采集圆孔标定板图像,提取二维图像中圆孔的圆心坐标以及半径ri(i=1,2,3……16,17,18)。3>三维激光雷达扫描标定板,获取圆形点云中心点坐标/>和半径Ri。4>选取四个圆心作为特征点,建立三维激光雷达坐标/>到二维图像坐标/>的坐标转换约束关系(R,T)。本发明中,为减小计算量并减少随机误差的影响,随机选取四组相邻的圆心参与计算,求取平均值作为最终的(R,T)。构建优化函数:
多次求解之后取均值得到最终的旋转和平移矩阵(R,T)。
2.基于PSMNet的双目视差数据获取
本发明中的双目视觉相机数据,是根据双目相机的左、右视图数据计算得到的视差数据。目的是为了利用视差数据的稠密特性,与点云数据做融合,将融合之后的数据作为最终的输入。本发明中采用的双目视觉视差计算方法是PSMNet。PSMNet模型包含了一个空间金字塔池化(Spatial Pyramid Pooling,SSP)模块用于全局特征的提取,以及一个堆叠的沙漏结构用于匹配代价的聚合。
2.1空间金字塔池化结构
PSMNet通过空间金字塔池化结构结合上下文信息对输入的图像进行特征提取。与传统的CNN相比,空间金字塔池化结构具有训练图像尺寸多样性的特点,相比于单一尺寸的训练图像更加容易收敛。并且对于不同尺寸的输入,都能够得到固定尺寸的输出。
PSMNet中设计了4个尺度的平均池化:64×64,32×32,16×16,8×8。空间金字塔池化结构通过这4个平均池化层将提取到的图像特征压缩到4个尺度上,然后使用1×1的卷积层来减少特征的维度。然后,将低维度的特征图通过双线性插值的方法进行上采样以恢复到原始图像的尺寸。
2.2匹配代价立方体
PSMNet中通过结合左右图中每个视差值对应的特征图,来构建一个四维的匹配代价立方体(高×宽×视差×特征图大小)。
在将由空间金字塔池化结构得到特征构建成匹配代价立方体后,需要在视差维度和空间维度上对特征信息进行聚合。PSMNet中提出了两种类型的3DCNN结构来聚合特征信息:基础结构和堆叠的沙漏结构。在基础结构中,网络由简单的残差块构成,包括12个3×3×3的卷积层。之后通过双线性插值的上采样将匹配代价立方体恢复到H×W×D,H和W表示图像的原始高和宽,D表示最大视差。根据恢复之后的匹配代价立方体来计算最终尺寸为H×W的视差图。与基础结构相比,为了提取更多的特征信息,采用了沙漏结构。沙漏结构是一种编码解码的结构,由多个重复的自上而下,自下而上的过程构成。此处使用了三个堆叠的沙漏结构,每一个沙漏结构都会生成一个视差图,以此获得三个输出和三个损失。在训练的过程中,损失是由三个损失加权求和得到。在测试的过程中,将第三个沙漏结构输出的视差图作为最终的视差图。
2.3视差回归
通过3D CNN操作可以获取到一个H×W×D的匹配代价立方体,对于图像上的每一个像素点,我们通过softmax操作来计算每一个视差d的可能性σ:
预测视差值由每一个视差值乘以其对应的可能性求和得到,如下式:
式中,cd表示视差为d时的匹配代价。相比于MC-CNN这种基于分类的方法,通过视差回归得到的结果鲁棒性会更强。
2.4损失函数
损失函数的计算采用Smooth L1 loss,对比L2loss,它具有更高的鲁棒性且对于异常点更不敏感。Smooth L1loss定义如下:
损失函数定义如下:
式中,N表示Ground Truth中像素点的数量,d是真实视差值,是预测视差值。
3.基于MV3D-Net的障碍物检测与立体防撞判断
根据实际的激光雷达的安装位置和激光点云扫描数据的范围,划分点云数据得到初步的检测区域。获得双目相机的视差图像数据,将点云数据(X,Y,Z,I)和视差图像数据(R,G,B)作为基本的数据源并划分ROI区域,并制作训练样本数据和测试样本数据。训练样本输入到MV3D-Net中利用MV3D-Net检测框架,检测ROI区域内是否出现障碍物,并得到MV3D-Net的训练模型参数。
MV3D-Net是经典的3D目标检测网络,融合了视觉图像和激光雷达点云信息;它用了点云的俯视图和前视图,减少了计算量并保留了主要的特征信息,是目前主流的多模式目标检测网络。
在ROI中检测区域内,人为制作训练数据集,训练数据集包含堆场障碍物检测中常见到的遮挡物体数据(如人、箱子、包、梯子等),利用该类型数据训练MV3D-Net网络,得到训练模型参数,在后续的RTG行走的车道线内对障碍物目标进行检测。
若在RTG行车道上有障碍物,利用MV3D-Net网络中的3DBox Regression作为三维物体的检测包围盒,检测3D Box的8个顶点,得到包围盒的中心,并计算包围盒的中心到激光雷达的水平距离d,以此来判断RTG的防撞状态。若距离d大于预先给定的防撞阈值D,计算机发出警报指令给警报器,以警示司机慢速。若障碍物在较近的距离,计算机发出停车指令,通过RTG相连的PLC发送信号,RTG停止行走。
Claims (9)
1.一种基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:包括如下步骤:
步骤一、双目相机与三维激光雷达的联合标定;
步骤二、基于PSMNet的双目视差数据获取;
步骤三、基于MV3D-Net的障碍物检测与立体防撞判断:
(1)根据实际的激光雷达的安装位置和激光点云扫描数据的范围确定ROI区域;
(2)将激光点云数据和双目视差数据作为基本的数据源,制作训练样本数据和测试样本数据;
(3)利用训练样本数据对MV3D-Net模型进行训练;
(4)利用训练好的MV3D-Net模型检测ROI区域内是否出现障碍物,并在出现障碍物时,根据实时检测出的3D Box计算其中心到激光雷达的水平距离d,以此作出防撞判断。
2.根据权利要求1所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:步骤一所述双目相机与三维激光雷达的联合标定方法包括如下步骤:
第一步、使用黑白相间的棋盘格标定板对双目相机进行标定,获得双目相机的内外参数;
第二步、利用双目相机采集标定板图像,提取二维图像中圆孔的圆心坐标以及半径/>;
第三步、利用三维激光雷达扫描标定板,获取圆形点云中心点坐标和半径/>;
第四步、选取四个圆心作为特征点,建立三维激光雷达坐标到二维图像坐标/>的坐标转换约束关系(R, T)。
3.根据权利要求2所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:求取 (R,T)的方法为:随机选取四组相邻的圆心参与计算,构建优化函数,经过多次求解之后取均值得到最终的 (R,T)。
4.根据权利要求1所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:PSMNet模型包含用于全局特征提取的空间金字塔池化结构,以及用于匹配代价聚合的沙漏结构。
5.根据权利要求4所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:空间金字塔池化结构通过4 个平均池化层将提取到的图像特征压缩到 4 个尺度上,然后使用 1 × 1的卷积层来减少特征的维度,最后将低维度的特征图通过双线性插值的方法进行上采样以恢复到原始图像的尺寸。
6.根据权利要求5所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:4 个平均池化层的尺度分别为:,/>。
7.根据权利要求4所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:采用三个堆叠的沙漏结构来计算最终尺寸为 H × W 的视差图,每一个沙漏结构生成一个视差图,以此获得三个输出和三个损失,在训练的过程中,损失由三个损失加权求和得到,在测试的过程中,将第三个沙漏结构输出的视差图作为最终的视差图。
8.根据权利要求7所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于: 损失函数按如下公式计算:
,
式中,N 表示 Ground Truth 中像素点的数量,d 是真实视差值,是预测视差值;其中:
(1),
(2),
式中,表示视差为 d 时的匹配代价,/>表示视差为d 的可能性。
9.根据权利要求1所述的基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法,其特征在于:训练样本数据为位于ROI区域内,堆场障碍物检测中常见的遮挡物体数据,包括人、箱子、包、梯子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210687895.5A CN114972541B (zh) | 2022-06-17 | 2022-06-17 | 基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210687895.5A CN114972541B (zh) | 2022-06-17 | 2022-06-17 | 基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114972541A CN114972541A (zh) | 2022-08-30 |
CN114972541B true CN114972541B (zh) | 2024-01-26 |
Family
ID=82964433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210687895.5A Active CN114972541B (zh) | 2022-06-17 | 2022-06-17 | 基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114972541B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015162886A (ja) * | 2014-02-28 | 2015-09-07 | 東芝ロジスティクス株式会社 | 障害物監視システム及びプログラム |
CN107344696A (zh) * | 2017-08-25 | 2017-11-14 | 上海沪东集装箱码头有限公司 | 基于实时视频图像识别的轮胎吊防碰撞预警系统及其方法 |
WO2019000859A1 (zh) * | 2017-06-29 | 2019-01-03 | 北京国泰星云科技有限公司 | 基于集装箱箱区轮廓三维识别的吊具安全防撞系统及方法 |
CN109269478A (zh) * | 2018-10-24 | 2019-01-25 | 南京大学 | 一种基于双目视觉的集装箱码头场桥障碍物检测方法 |
CN109460709A (zh) * | 2018-10-12 | 2019-03-12 | 南京大学 | 基于rgb和d信息融合的rtg视觉障碍物检测的方法 |
CN111506069A (zh) * | 2020-04-26 | 2020-08-07 | 吉林大学 | 一种全天候全地面起重机障碍识别系统及方法 |
CN112418103A (zh) * | 2020-11-24 | 2021-02-26 | 中国人民解放军火箭军工程大学 | 一种基于动态双目视觉的桥式起重机吊装安全防撞系统及方法 |
CN112965486A (zh) * | 2021-02-04 | 2021-06-15 | 天津港第二集装箱码头有限公司 | 一种基于双目视觉及雷达的场桥避障系统及方法 |
CN113173502A (zh) * | 2021-01-15 | 2021-07-27 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防撞方法、系统 |
JP2021172472A (ja) * | 2020-04-22 | 2021-11-01 | 川崎重工業株式会社 | 天井式クレーンの運転計画方法及び装置、並びに、天井式クレーンの制御方法及び装置 |
CN114219842A (zh) * | 2021-12-14 | 2022-03-22 | 东南大学 | 港口集装箱自动装卸作业中的视觉识别、测距与定位方法 |
-
2022
- 2022-06-17 CN CN202210687895.5A patent/CN114972541B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015162886A (ja) * | 2014-02-28 | 2015-09-07 | 東芝ロジスティクス株式会社 | 障害物監視システム及びプログラム |
WO2019000859A1 (zh) * | 2017-06-29 | 2019-01-03 | 北京国泰星云科技有限公司 | 基于集装箱箱区轮廓三维识别的吊具安全防撞系统及方法 |
CN107344696A (zh) * | 2017-08-25 | 2017-11-14 | 上海沪东集装箱码头有限公司 | 基于实时视频图像识别的轮胎吊防碰撞预警系统及其方法 |
CN109460709A (zh) * | 2018-10-12 | 2019-03-12 | 南京大学 | 基于rgb和d信息融合的rtg视觉障碍物检测的方法 |
CN109269478A (zh) * | 2018-10-24 | 2019-01-25 | 南京大学 | 一种基于双目视觉的集装箱码头场桥障碍物检测方法 |
JP2021172472A (ja) * | 2020-04-22 | 2021-11-01 | 川崎重工業株式会社 | 天井式クレーンの運転計画方法及び装置、並びに、天井式クレーンの制御方法及び装置 |
CN111506069A (zh) * | 2020-04-26 | 2020-08-07 | 吉林大学 | 一种全天候全地面起重机障碍识别系统及方法 |
CN112418103A (zh) * | 2020-11-24 | 2021-02-26 | 中国人民解放军火箭军工程大学 | 一种基于动态双目视觉的桥式起重机吊装安全防撞系统及方法 |
CN113173502A (zh) * | 2021-01-15 | 2021-07-27 | 福建电子口岸股份有限公司 | 一种基于激光视觉融合和深度学习的防撞方法、系统 |
CN112965486A (zh) * | 2021-02-04 | 2021-06-15 | 天津港第二集装箱码头有限公司 | 一种基于双目视觉及雷达的场桥避障系统及方法 |
CN114219842A (zh) * | 2021-12-14 | 2022-03-22 | 东南大学 | 港口集装箱自动装卸作业中的视觉识别、测距与定位方法 |
Non-Patent Citations (4)
Title |
---|
Development of rubber tire gantry crane (prototype) obstacles avoidance method using a single sensor on microcontroller based;Bin Bahar, M.B.等;《Proceedings 2011 IEEE Symposium on Industrial Electronics and Applications (ISIEA 2011)》;58-62 * |
双目避障系统在桥式起重机上的应用;刘曦 等;《现代制造技术与装备》;第57卷(第10期);95-97 * |
基于CMOS摄像头的塔机双目视觉防碰撞控制系统研究;刘涛 等;《建设机械技术与管理》(第08期);95-97 * |
基于双目视觉的塔机障碍物测距方法研究;路遥;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》(第08期);C038-659 * |
Also Published As
Publication number | Publication date |
---|---|
CN114972541A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111583337B (zh) | 一种基于多传感器融合的全方位障碍物检测方法 | |
CN109948661B (zh) | 一种基于多传感器融合的3d车辆检测方法 | |
CN113111887B (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN110879401B (zh) | 基于相机和激光雷达的无人驾驶平台实时目标3d检测方法 | |
CN112001958B (zh) | 基于有监督单目深度估计的虚拟点云三维目标检测方法 | |
CN111563415B (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN112149550B (zh) | 一种基于多传感器融合的自动驾驶车辆3d目标检测方法 | |
CN110738121A (zh) | 一种前方车辆检测方法及检测系统 | |
CN113936139A (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统 | |
CN115032651A (zh) | 一种基于激光雷达与机器视觉融合的目标检测方法 | |
CN111880191B (zh) | 基于多智能体激光雷达和视觉信息融合的地图生成方法 | |
CN110197173B (zh) | 一种基于双目视觉的路沿检测方法 | |
CN117274749B (zh) | 一种基于4d毫米波雷达和图像的融合3d目标检测方法 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
TWI673190B (zh) | 基於光學雷達之汽車偵測方法 | |
CN113643345A (zh) | 一种基于双光融合的多目道路智能识别方法 | |
CN114170535A (zh) | 目标检测定位方法、装置、控制器及存储介质和无人机 | |
CN112990049A (zh) | 用于车辆自动驾驶的aeb紧急制动方法、装置 | |
CN117237919A (zh) | 跨模态监督学习下多传感器融合检测的卡车智驾感知方法 | |
CN114821526A (zh) | 基于4d毫米波雷达点云的障碍物三维边框检测方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
CN115588047A (zh) | 一种基于场景编码的三维目标检测方法 | |
CN114842340A (zh) | 一种机器人双目立体视觉障碍物感知方法与系统 | |
CN118429524A (zh) | 基于双目立体视觉的车辆行驶环境建模方法及系统 | |
CN113378647B (zh) | 基于三维点云的实时轨道障碍物检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |