CN113627473A - 基于多模态传感器的水面无人艇环境信息融合感知方法 - Google Patents
基于多模态传感器的水面无人艇环境信息融合感知方法 Download PDFInfo
- Publication number
- CN113627473A CN113627473A CN202110760932.6A CN202110760932A CN113627473A CN 113627473 A CN113627473 A CN 113627473A CN 202110760932 A CN202110760932 A CN 202110760932A CN 113627473 A CN113627473 A CN 113627473A
- Authority
- CN
- China
- Prior art keywords
- target
- data
- radar
- marine
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 19
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 239000011159 matrix material Substances 0.000 claims description 62
- 230000008447 perception Effects 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 11
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 230000001174 ascending effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 9
- 230000007547 defect Effects 0.000 abstract description 4
- 238000011156 evaluation Methods 0.000 abstract description 3
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Abstract
本发明针对水面无人艇复杂、多变的工作环境,提供了一种基于多模态传感器的水面无人艇环境信息融合感知方法。本发明克服了单一传感器采集的信息只能从某一角度或侧重点获取环境信息、对目标或场景的描述能力具有一定的局限性、抵抗外界的干扰能力较弱的缺点,发挥了各个传感器的优点并加以结合,构成了一种探测距离远、精度高、可靠性强的感知系统,能对不同海面目标判别其类别并获取绝对经纬度位置,对目标进行不同等级威胁度评估,在场景理解的误差、运动引起的图像噪声、弱光或恶劣海况下具有较高的鲁棒性,保证无人艇在执行任务时能提供更为完善的海洋环境感知模型,安全高效的执行各项任务。
Description
技术领域
本发明属于水面无人艇环境感知技术领域,具体涉及一种基于多模态传感器的水面无人艇环境信息融合感知方法。
背景技术
水面无人艇作为一个海上的高智能化载体,其复杂、多变的工作环境,对环境感知能力有较高的需求。目前国内外研究者一直在对单一传感器的性能进行完善,但海面环境复杂,其信息具有片面性,特别是在恶劣海况下,单一传感器采集的信息只能从某一角度或侧重点获取环境信息,因而对目标或场景的描述能力具有一定的局限性,抵抗外界的干扰能力较弱,为准确地识别环境目标信息带来了较大的挑战。
多传感器信息融合技术能够弥补各自传感器的缺陷,结合它们的优点,准确地、快速地感知无人艇周围目标信息。例如,激光雷达具有分辨率高、精度高等优点,航海雷达探测范围远能提供较远目标的方位信息,但近距离检测精度较差,正好与激光雷达优劣互补,提高系统鲁棒性。同时光学传感器弥补了雷达在识别物体方面的劣势,它可以捕获物体的细节,如亮度,纹理等特征,依靠深度学习目标检测算法为不同的海面目标划分不同等级度危险标签,但是可见光摄像机又受天气状况影响,只能在天气良好的情况下检测和识别目标,红外摄像机成像是将目标与环境的辐射差异按照固定的映射机制映射成为灰度图像,其成像不受环境条件的限制,而且能突出显示隐藏的目标,因此将可见光图像与红外图像相融合,尽可能多的保留海面目标的特征,与雷达所提供的三维信息相结合,构建更为完善的海面环境感知模型。目前,多种传感器信息融合在国内应用于水面无人艇环境感知的研究相对较少,存在许多待解决的难题,需要开展深入的理论和技术研究。
发明内容
本发明的目的在于提供一种基于多模态传感器的水面无人艇环境信息融合感知方法。
本发明的目的通过如下技术方案来实现:包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
本发明还可以包括:
所述的步骤4具体包括以下步骤:
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为ρn表示第n组数据中目标与水面无人艇的距离,表示第n组数据中目标在极坐标系下与极轴的角度,表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,ψ1=0,即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令 ψ1=0,即
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk;
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
协方差矩阵Qk的计算方法为:
其中,υk为噪声;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中:
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中,
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型。
本发明的有益效果在于:
本发明针对水面无人艇复杂、多变的工作环境,克服了单一传感器采集的信息只能从某一角度或侧重点获取环境信息、对目标或场景的描述能力具有一定的局限性、抵抗外界的干扰能力较弱的缺点,发挥了各个传感器的优点并加以结合,构成了一种探测距离远、精度高、可靠性强的感知系统,能对不同海面目标判别其类别并获取绝对经纬度位置,对目标进行不同等级威胁度评估,在场景理解的误差、运动引起的图像噪声、弱光或恶劣海况下具有较高的鲁棒性,保证无人艇在执行任务时能提供更为完善的海洋环境感知模型,安全高效的执行各项任务。
附图说明
图1为本发明的整体框架图。
图2为本发明中雷达数据融合示意图。
图3为本发明中硬件系统组成结构图。
具体实施方式
下面结合附图对本发明做进一步描述。
由于海面环境复杂,特别是在恶劣海况下,单一传感器采集的信息只能从某一角度或侧重点获取环境信息,因而对目标或场景的描述能力具有一定的局限性,抵抗外界的干扰能力较弱,为准确地识别目标信息带来了较大的挑战。本发明针对水面无人艇复杂、多变的工作环境,提供了一种基于多模态传感器的水面无人艇环境信息融合感知方法,使无人艇及时根据环境的变化调整自身姿态及状态,在执行任务时能具备更好的环境感知能力,在保障安全的前提下自主地完成各项任务。本发明利用激光雷达、航海雷达、高清摄像机、红外热成像仪多种传感器相结合获得更为准确的环境模型。首先,将四个传感器在时间空间上配准,将激光雷达与可见光摄像机联合标定、将可见光摄像机与红外摄像机标定;将激光雷达点云数据进行坐标转换与自身航迹消除处理、聚类处理得到较为稳定的目标信息,然后将航海雷达所返还目标数据用扩展卡尔曼滤波相融合,得到初步的环境模型;利用不同目标的方位信息引导光学相机自动追踪目标,将所得高清图像与红外图像相融合,依靠目标检测算法为目标贴上类别属性标签,同时将目标检测信息与雷达信息、自身艇姿态信息相融合,对海面目标进行危险等级度评估,不断构建完善海上环境感知模型,提高水面无人艇自身的智能化水平与执行任务的能力。
一种基于多模态传感器的水面无人艇环境信息融合感知方法,包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为ρn表示第n组数据中目标与水面无人艇的距离,表示第n组数据中目标在极坐标系下与极轴的角度,表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,ψ1=0,即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令 ψ1=0,即
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk;
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
协方差矩阵Qk的计算方法为:
其中,υk为噪声;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中:
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中,
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
本发明针对水面无人艇复杂、多变的工作环境,克服了单一传感器采集的信息只能从某一角度或侧重点获取环境信息、对目标或场景的描述能力具有一定的局限性、抵抗外界的干扰能力较弱的缺点,发挥了各个传感器的优点并加以结合,构成了一种探测距离远、精度高、可靠性强的感知系统,能对不同海面目标判别其类别并获取绝对经纬度位置,对目标进行不同等级威胁度评估,在场景理解的误差、运动引起的图像噪声、弱光或恶劣海况下具有较高的鲁棒性,保证无人艇在执行任务时能提供更为完善的海洋环境感知模型,安全高效的执行各项任务。
实施例1:
本发明提供了一种基于多模态传感器的水面无人艇环境信息融合感知方法,针对水面无人艇复杂、多变的工作环境,在执行任务时能具备更好的环境感知能力,使无人艇及时根据环境的变化调整自身姿态及状态,在保障安全的前提下自主地完成各项任务。由于海面环境复杂,特别是在恶劣海况下,单一传感器采集的信息只能从某一角度或侧重点获取环境信息,因而对目标或场景的描述能力具有一定的局限性,抵抗外界的干扰能力较弱,为准确地识别目标信息带来了较大的挑战。本发明利用激光雷达、航海雷达、高清摄像机、红外热成像仪多种传感器相结合获得更为准确的环境模型。首先,将四个传感器在时间空间上配准,利用张正友标定法建立的3D-2D转换关系将激光雷达与可见光摄像机联合标定,可见光与红外双摄像机标定。激光雷达点云数据进行坐标转换与自身航迹消除处理,然后利用GB-DBSCAN聚类处理得到较为稳定的目标信息,然后将航海雷达所返还目标数据用扩展卡尔曼滤波相融合,得到初步的环境模型。后利用不同目标的方位信息引导光学相机自动追踪目标,将所得高清图像与红外图像相融合,依靠目标检测算法为目标贴上类别属性标签,同时将目标检测信息与雷达信息、自身艇姿态信息构建Bayes模型相融合,对海面目标进行危险等级度评估,不断构建完善海上环境感知模型,提高水面无人艇自身的智能化水平与执行任务的能力。
本发明运用多种传感器,设计一种新的适用于无人艇的信息融合环境感知技术策略。多艇上装载的激光雷达与航海雷达不间断获取目标信息构建周围初步环境模型,得到目标方位信息引导光学传感器感知目标,红外热成像仪与可见光摄像机进行特征层面融合,融合后的图像可应用于目标检测算法,得到目标属性类别。同时将目标检测信息与雷达信息、自身艇姿态信息构建Bayes模型相融合,对海面目标进行危险等级度评估,不断构建完善海上环境感知模型,提高水面无人艇自身的智能化水平与执行任务的能力。其具体的实施方法如下。
步骤1,将四个传感器在时间空间上配准,激光雷达与航海雷达坐标系相互转换对齐,后对激光雷达和相机进行标定,利用张正友标定法求出可见光相机内参矩阵,根据光学传感器和激光雷达固定装配位置的相对关系解算出转换矩阵,其公式为S0m=K[R,T]M,光学传感器捕获的图像数据用(u,v)表示,激光雷达捕获的3维点阵云用(x,y,z)表示,目标是建立一个转化矩阵M,将3维点(x,y,z)映射到2维点(u,v),坐标转移公式为S0m=K[R,T]M。
其中利用张氏标定法得到相机内参fu以及fv是水平方向和垂直方向的有效焦距,u0以及v0是图像平面(image plane)的中心点,又称主点坐标。然后根据光电吊舱和激光雷达固定装配位置的相对关系得到外参矩阵[R,T],其中S0为尺度因子,K为摄像机内参,R为旋转矩阵,T为平移向量。
步骤2,利用光学传感器收集海面环境图像数据,用无人艇所载相机对海面不同目标拍摄足够的视频资料,后处理为图片数据,用LabelImage工具对海面数据集进行标注,后处理达到神经网络训练要求输入格式。
步骤3,利用所采集到的海面目标数据集在卷积神经网络中进行训练,对训练数据集进行Mosaic数据增强等操作后,使用轻量化卷积神经网络,以达到实时性要求与嵌入式设备运行需求。经过训练测试,筛选得到最优的目标检测模型。
步骤4,利用Conditional Removal滤波器删除激光雷达点云中无效数据与自身航迹所产生的杂乱点云。由于海面环境的特殊性以及无人艇航行时航迹的影响,激光雷达扫描得到的点云密度分布不均匀,产生散乱的干扰点。这会给点云特征识别以及点云聚类带来干扰,造成目标漏检或错检。Conditional Removal滤波器以每一个点为圆心生成临域,计算临域内点至圆心之间的欧氏距离,以此为判断条件并且将临域内点数目过少的点识别为离群干扰点,同时设定艇自身螺旋桨后适当的区域(1m~2m)为航迹区域并将其一并从数据集中去除。由此去除水面上的杂乱数据点与艇自身航迹所产生的点云。
步骤5,将过滤后的点云使用GB-DBSCAN聚类算法得到艇身周围不同目标的点云簇。与传统的聚类算法如K-Means相比,DBSCAN算法最大的优点是它不需要事先明确具体的簇的数量,且数据集簇的形状可以是非凸的,但当空间聚类的密度不均匀、聚类间距差相差很大时,聚类质量较差,因为这种情况下参数MinPts和Eps选取困难。GB-DBSCAN算法无需固定的参数,利用雷达半径与角率来创建grid网格,无须判断点与点之间的欧氏距离,只需考虑grid与grid之间是否密度相连,极大的减少了计算量,节约了聚类所需的时间。将聚类后的点云簇提取质心作为海面目标的特征点。
步骤6,据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换并构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步的环境模型。
为海面目标构建CTRV运动模型,其移动向量五个分量为:
则运动模型Jacobian矩阵为:
协方差矩阵Q为:
对于航海雷达,没有变换矩阵可将状态向量映射至极坐标中,因此需要将笛卡尔坐标系映射到极坐标系,即:
对于Lidar激光雷达测量模型,因为激光雷达仅测量位置信息,故将状态向量中速度与角速度信息舍去。R为传感器测量中的不确定性,每个位置成分Px,Py都会受到随机噪声的影响。测量噪声ω是一个均值为零,协方差为R的分布,即ω~N(0,R)。因此R矩阵是均值为零的2×2协方差矩阵,是噪声矢量ω和它的转置乘积的期望值。其变换矩阵H与噪声测量协方差矩阵为
航海雷达非线性映射线性化后的Jacobian矩阵Hj与噪声矩阵为:
最终融合步骤分为预测与修正当下,公式如下所示:
预测部分:
修正当下部分:
其中Pk为状态误差协方差矩阵,可用测量噪声方差来初始化矩阵,I为n维的单位矩阵。激光雷达与航海雷达预测部分公式一致,参数更新部分稍有不同,航海雷达需用替换即可。当收到目标激光雷达或航海雷达的测量值时,依次执行预测与修正部分即可,具体融合流程步骤如图2所示。
步骤7,红外与可见光双摄像机标定,利用单目摄像机标定得到红外和可见光摄像机的外参数Ri,Rv,ti,tv,然后利用下式求得红外和可见光摄像机间的空间变换关系R′,t′。
R′为可见光摄像机相对红外热成像仪的旋转矩阵、t′为可见光摄像机相对红外热成像仪的平移向量。可见光摄像机坐标系与红外摄像机坐标系关系为:
由此可得红外与可见光图像配准关系:
将配准后的红外与可见光图像利用深度学习方法进行特征融合,其网络框架与DenseFuse类似,包含编码器,融合层和解码器三个部分。编码器层设置4层3x3卷积以提取多层次深度特征,融合策略上在传统的Spatial Attention Model上用了基于L1范数和Softmax运算的新方法,公式如下:
其中fv为可见光图像的特征图,fi为红外图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值,fi(x,y)为特征图fi在(x,y)处的特征值,f(x,y)为特征图f在(x,y)处的特征值。由此最大限度结合红外图像与可见光的图像的优势,再利用解码器将融合后的图像重构,得到新的同时具有二者优势的海洋环境目标感知光学样本。
步骤8,利用所得雷达海洋环境模型,针对海面不同目标方位引导光学传感器追踪环境内目标,即控制云台姿态角转动至目标所在方位角,同时用直通滤波器将雷达数据在光学传感器视场范围内进行筛选,即通过光学传感器的视场角以及云台姿态角,将雷达点限制在相机感受野范围内,节省计算量。
其中β为云台方位角,ε为相机视场角度,px,py为雷达目标的xy坐标。将筛选后的雷达数据投影至二维图像坐标系中。
步骤9,利用目标检测算法对融合后的图像进行识别,并输出所检测到目标的属性、置信度、目标中心像素的位置和检测框左上角、右下角的坐标,分别记为(A11..An1,B11..B1n),(C11...Cn1,D11…D1n)。
步骤10,根据投影至图像平面的雷达坐标,计算点与目标检测框的重叠度,即雷达映射至图像坐标系中点(X,Y),若点在目标检测框内或框外所允许的误差范围内,即:
An1≤X≤Cn1,B1n≤Y≤D1n (23)
则将目标检测的结果赋予该雷达点坐标,即雷达点被贴上该目标类别与置信度的属性标签。若目标检测框无映射雷达点坐标,则给予一定的噪声误差允许范围ε,即:
以此来扩大验证范围。剩余无目标检测结果框或未映射至图像上的雷达点,则赋予-1的属性标签,代表暂无目标属性类别,等待后续光学传感器验证识别。
步骤11,对所得海洋环境模型内的点进行坐标转换,依靠无人艇所载惯导得到艇自身的姿态,即航向、位置、速度等,将模型内目标点的相对坐标转换为绝对坐标即经纬度信息,相对速度与航向转换为绝对速度与航向:
其中x0,y0,θ,lat0,lon0为无人艇雷达所检测到的目标相对坐标与航向及自身经纬度信息,R为地球半径,lat1,lon1为转换后经纬度信息。同时利用目标检测信息、目标雷达信息与自身艇姿态信息构建加权模型融合,对海面目标进行危险等级度评估:
Tp,Tt,Td分别代表着目标属性(Properties),目标趋势(Tendency)与目标距离(Distance),可根据不同任务需求分为多个等级,等级可换算为实数1~N,w1,w2,w3为三个威胁度等级因子,依据实际海域情况可进行调整,最后加权获得总的威胁度等级T,构建更为完善的海洋环境智能感知模型。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种基于多模态传感器的水面无人艇环境信息融合感知方法,其特征在于,包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
2.根据权利要求1所述的一种基于多模态传感器的水面无人艇环境信息融合感知方法,其特征在于:所述的步骤4具体包括以下步骤:
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为ρn表示第n组数据中目标与水面无人艇的距离,表示第n组数据中目标在极坐标系下与极轴的角度,表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,Ψ1=0,即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令 Ψ1=0,即
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk;
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
协方差矩阵Qk的计算方法为:
其中,υk为噪声;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中:
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
其中,
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110760932.6A CN113627473B (zh) | 2021-07-06 | 2021-07-06 | 基于多模态传感器的水面无人艇环境信息融合感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110760932.6A CN113627473B (zh) | 2021-07-06 | 2021-07-06 | 基于多模态传感器的水面无人艇环境信息融合感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113627473A true CN113627473A (zh) | 2021-11-09 |
CN113627473B CN113627473B (zh) | 2023-09-29 |
Family
ID=78379109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110760932.6A Active CN113627473B (zh) | 2021-07-06 | 2021-07-06 | 基于多模态传感器的水面无人艇环境信息融合感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113627473B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114166137A (zh) * | 2021-11-26 | 2022-03-11 | 沪东中华造船(集团)有限公司 | 一种船对船加注间距智能检测系统及方法 |
CN114202684A (zh) * | 2021-11-29 | 2022-03-18 | 哈尔滨工程大学 | 一种适用于水面环境的点云数据投影方法、系统及装置 |
CN114910901A (zh) * | 2022-05-30 | 2022-08-16 | 深圳市大族机器人有限公司 | 一种协作机器人高精度多传感器融合测距系统 |
CN116245961A (zh) * | 2023-03-02 | 2023-06-09 | 之江实验室 | 一种基于多类传感器信息的融合感知方法及系统 |
CN116310689A (zh) * | 2023-03-24 | 2023-06-23 | 中国科学院空天信息创新研究院 | 一种无人智能多模态信息融合与目标感知系统及作业方法 |
CN117454316A (zh) * | 2023-12-25 | 2024-01-26 | 安徽蔚来智驾科技有限公司 | 多传感器的数据融合方法、存储介质及智能设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN110414396A (zh) * | 2019-07-19 | 2019-11-05 | 中国人民解放军海军工程大学 | 一种基于深度学习的无人艇感知融合算法 |
CN110850403A (zh) * | 2019-11-18 | 2020-02-28 | 中国船舶重工集团公司第七0七研究所 | 一种多传感器决策级融合的智能船水面目标感知识别方法 |
CN111536967A (zh) * | 2020-04-09 | 2020-08-14 | 江苏大学 | 一种基于ekf的多传感器融合温室巡检机器人跟踪方法 |
US20210012165A1 (en) * | 2018-03-29 | 2021-01-14 | Shanghai Zttvision Technologies Co.Ltd | Data processing method and device based on multi-sensor fusion, and multi-sensor fusion method |
-
2021
- 2021-07-06 CN CN202110760932.6A patent/CN113627473B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210012165A1 (en) * | 2018-03-29 | 2021-01-14 | Shanghai Zttvision Technologies Co.Ltd | Data processing method and device based on multi-sensor fusion, and multi-sensor fusion method |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN110414396A (zh) * | 2019-07-19 | 2019-11-05 | 中国人民解放军海军工程大学 | 一种基于深度学习的无人艇感知融合算法 |
CN110850403A (zh) * | 2019-11-18 | 2020-02-28 | 中国船舶重工集团公司第七0七研究所 | 一种多传感器决策级融合的智能船水面目标感知识别方法 |
CN111536967A (zh) * | 2020-04-09 | 2020-08-14 | 江苏大学 | 一种基于ekf的多传感器融合温室巡检机器人跟踪方法 |
Non-Patent Citations (1)
Title |
---|
罗亚萍;尚永强;柳志博;赵耕云;李万敏;林小军;: "基于多传感器信息融合的无人车导航系统设计", 兰州工业学院学报, no. 02 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114166137A (zh) * | 2021-11-26 | 2022-03-11 | 沪东中华造船(集团)有限公司 | 一种船对船加注间距智能检测系统及方法 |
CN114202684A (zh) * | 2021-11-29 | 2022-03-18 | 哈尔滨工程大学 | 一种适用于水面环境的点云数据投影方法、系统及装置 |
CN114910901A (zh) * | 2022-05-30 | 2022-08-16 | 深圳市大族机器人有限公司 | 一种协作机器人高精度多传感器融合测距系统 |
CN116245961A (zh) * | 2023-03-02 | 2023-06-09 | 之江实验室 | 一种基于多类传感器信息的融合感知方法及系统 |
CN116245961B (zh) * | 2023-03-02 | 2023-09-01 | 之江实验室 | 一种基于多类传感器信息的融合感知方法及系统 |
CN116310689A (zh) * | 2023-03-24 | 2023-06-23 | 中国科学院空天信息创新研究院 | 一种无人智能多模态信息融合与目标感知系统及作业方法 |
CN116310689B (zh) * | 2023-03-24 | 2023-09-08 | 中国科学院空天信息创新研究院 | 一种无人智能多模态信息融合与目标感知系统及作业方法 |
CN117454316A (zh) * | 2023-12-25 | 2024-01-26 | 安徽蔚来智驾科技有限公司 | 多传感器的数据融合方法、存储介质及智能设备 |
CN117454316B (zh) * | 2023-12-25 | 2024-04-26 | 安徽蔚来智驾科技有限公司 | 多传感器的数据融合方法、存储介质及智能设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113627473B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113627473B (zh) | 基于多模态传感器的水面无人艇环境信息融合感知方法 | |
CN110850403B (zh) | 一种多传感器决策级融合的智能船水面目标感知识别方法 | |
CN103149939B (zh) | 一种基于视觉的无人机动态目标跟踪与定位方法 | |
CN113359097B (zh) | 一种毫米波雷达和相机联合标定的方法 | |
CN110456330B (zh) | 一种相机与激光雷达之间外参无目标自动标定方法及系统 | |
CN110889324A (zh) | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 | |
CN109239709B (zh) | 一种无人船的局部环境地图自主构建方法 | |
CN112734765B (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
CN107817679B (zh) | 基于红外与可见光融合跟踪的舰船水炮控制系统及方法 | |
CN109212545A (zh) | 基于主动视觉的多信源目标跟踪测量系统及跟踪方法 | |
CN109631911B (zh) | 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法 | |
CN107300382B (zh) | 一种用于水下机器人的单目视觉定位方法 | |
CN112698302A (zh) | 一种颠簸路况下的传感器融合目标检测方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN113933828A (zh) | 一种无人艇环境自适应多尺度目标检测方法及系统 | |
CN112802195B (zh) | 一种基于声呐的水下机器人连续占据建图方法 | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
CN112950671A (zh) | 一种无人机对运动目标实时高精度参数测量方法 | |
CN109764864B (zh) | 一种基于颜色识别的室内无人机位姿获取方法及系统 | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN114973037B (zh) | 一种无人机智能检测与同步定位多目标的方法 | |
CN112489118B (zh) | 一种无人机机载传感器组外参快速标定方法 | |
CN115792912A (zh) | 一种弱观测条件下基于视觉与毫米波雷达融合的水面无人艇环境感知方法及系统 | |
CN112862862B (zh) | 基于人工智能视觉跟踪的飞机自主受油装置及应用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |