CN113627473A - 基于多模态传感器的水面无人艇环境信息融合感知方法 - Google Patents

基于多模态传感器的水面无人艇环境信息融合感知方法 Download PDF

Info

Publication number
CN113627473A
CN113627473A CN202110760932.6A CN202110760932A CN113627473A CN 113627473 A CN113627473 A CN 113627473A CN 202110760932 A CN202110760932 A CN 202110760932A CN 113627473 A CN113627473 A CN 113627473A
Authority
CN
China
Prior art keywords
target
data
radar
marine
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110760932.6A
Other languages
English (en)
Other versions
CN113627473B (zh
Inventor
李晔
魏凯昕
王博
魏星
姜鹏
顾华宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202110760932.6A priority Critical patent/CN113627473B/zh
Publication of CN113627473A publication Critical patent/CN113627473A/zh
Application granted granted Critical
Publication of CN113627473B publication Critical patent/CN113627473B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明针对水面无人艇复杂、多变的工作环境,提供了一种基于多模态传感器的水面无人艇环境信息融合感知方法。本发明克服了单一传感器采集的信息只能从某一角度或侧重点获取环境信息、对目标或场景的描述能力具有一定的局限性、抵抗外界的干扰能力较弱的缺点,发挥了各个传感器的优点并加以结合,构成了一种探测距离远、精度高、可靠性强的感知系统,能对不同海面目标判别其类别并获取绝对经纬度位置,对目标进行不同等级威胁度评估,在场景理解的误差、运动引起的图像噪声、弱光或恶劣海况下具有较高的鲁棒性,保证无人艇在执行任务时能提供更为完善的海洋环境感知模型,安全高效的执行各项任务。

Description

基于多模态传感器的水面无人艇环境信息融合感知方法
技术领域
本发明属于水面无人艇环境感知技术领域,具体涉及一种基于多模态传感器的水面无人艇环境信息融合感知方法。
背景技术
水面无人艇作为一个海上的高智能化载体,其复杂、多变的工作环境,对环境感知能力有较高的需求。目前国内外研究者一直在对单一传感器的性能进行完善,但海面环境复杂,其信息具有片面性,特别是在恶劣海况下,单一传感器采集的信息只能从某一角度或侧重点获取环境信息,因而对目标或场景的描述能力具有一定的局限性,抵抗外界的干扰能力较弱,为准确地识别环境目标信息带来了较大的挑战。
多传感器信息融合技术能够弥补各自传感器的缺陷,结合它们的优点,准确地、快速地感知无人艇周围目标信息。例如,激光雷达具有分辨率高、精度高等优点,航海雷达探测范围远能提供较远目标的方位信息,但近距离检测精度较差,正好与激光雷达优劣互补,提高系统鲁棒性。同时光学传感器弥补了雷达在识别物体方面的劣势,它可以捕获物体的细节,如亮度,纹理等特征,依靠深度学习目标检测算法为不同的海面目标划分不同等级度危险标签,但是可见光摄像机又受天气状况影响,只能在天气良好的情况下检测和识别目标,红外摄像机成像是将目标与环境的辐射差异按照固定的映射机制映射成为灰度图像,其成像不受环境条件的限制,而且能突出显示隐藏的目标,因此将可见光图像与红外图像相融合,尽可能多的保留海面目标的特征,与雷达所提供的三维信息相结合,构建更为完善的海面环境感知模型。目前,多种传感器信息融合在国内应用于水面无人艇环境感知的研究相对较少,存在许多待解决的难题,需要开展深入的理论和技术研究。
发明内容
本发明的目的在于提供一种基于多模态传感器的水面无人艇环境信息融合感知方法。
本发明的目的通过如下技术方案来实现:包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
本发明还可以包括:
所述的步骤4具体包括以下步骤:
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为
Figure BDA0003149679270000031
ρn表示第n组数据中目标与水面无人艇的距离,
Figure BDA0003149679270000032
表示第n组数据中目标在极坐标系下与极轴的角度,
Figure BDA0003149679270000033
表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
Figure BDA0003149679270000034
其中,bkx表示目标在笛卡尔坐标系x轴的位置;bky表示目标在笛卡尔坐标系y轴的位置;vk表示目标的速度,
Figure BDA0003149679270000035
ψk表示目标的偏航角,
Figure BDA0003149679270000036
Figure BDA0003149679270000037
表示目标的偏航角速度
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,ψ1=0,
Figure BDA0003149679270000038
即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令
Figure BDA0003149679270000039
Figure BDA00031496792700000310
ψ1=0,
Figure BDA00031496792700000311
Figure BDA00031496792700000312
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
Figure BDA00031496792700000313
则:
Figure BDA0003149679270000041
Figure BDA0003149679270000042
Figure BDA0003149679270000043
则:
Figure BDA0003149679270000044
Figure BDA0003149679270000045
Figure BDA0003149679270000046
Figure BDA0003149679270000047
Figure BDA0003149679270000048
Figure BDA0003149679270000049
协方差矩阵Qk的计算方法为:
Figure BDA0003149679270000051
其中,
Figure BDA0003149679270000052
为设定的常数;
Figure BDA0003149679270000053
为目标的历史偏航角速度变换倍率的方差,根据集合X中的数据计算;
步骤4.4:计算目标的CTRV运动状态的预测值
Figure BDA0003149679270000054
及状态误差协方差矩阵的预测值
Figure BDA0003149679270000055
Figure BDA0003149679270000056
Figure BDA0003149679270000057
其中,υk为噪声;
Figure BDA0003149679270000058
其中,υa,k为纵向加速度噪声,其均值为0,方差为
Figure BDA0003149679270000059
Figure BDA00031496792700000510
为角加速度噪声,其均值为0,方差为
Figure BDA00031496792700000511
步骤4.5:若第k组数据zk为激光雷达采集的数据,则执行步骤4.6;若第k组数据zk为航海雷达采集的数据
Figure BDA00031496792700000512
则执行步骤4.7;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
Figure BDA00031496792700000513
Figure BDA0003149679270000061
其中:
Figure BDA0003149679270000062
Figure BDA0003149679270000063
Figure BDA0003149679270000064
Figure BDA0003149679270000065
Figure BDA0003149679270000066
其中,I为单位阵;
Figure BDA0003149679270000067
为笛卡尔坐标系x轴方向的噪声标准差;
Figure BDA0003149679270000068
为笛卡尔坐标系y轴方向的噪声标准差;
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
Figure BDA0003149679270000069
Figure BDA00031496792700000610
其中,
Figure BDA00031496792700000611
Figure BDA00031496792700000612
Figure BDA00031496792700000613
Figure BDA00031496792700000614
Figure BDA0003149679270000071
Figure BDA0003149679270000072
其中,
Figure BDA0003149679270000073
为不同参数的噪声标准差;
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型。
本发明的有益效果在于:
本发明针对水面无人艇复杂、多变的工作环境,克服了单一传感器采集的信息只能从某一角度或侧重点获取环境信息、对目标或场景的描述能力具有一定的局限性、抵抗外界的干扰能力较弱的缺点,发挥了各个传感器的优点并加以结合,构成了一种探测距离远、精度高、可靠性强的感知系统,能对不同海面目标判别其类别并获取绝对经纬度位置,对目标进行不同等级威胁度评估,在场景理解的误差、运动引起的图像噪声、弱光或恶劣海况下具有较高的鲁棒性,保证无人艇在执行任务时能提供更为完善的海洋环境感知模型,安全高效的执行各项任务。
附图说明
图1为本发明的整体框架图。
图2为本发明中雷达数据融合示意图。
图3为本发明中硬件系统组成结构图。
具体实施方式
下面结合附图对本发明做进一步描述。
由于海面环境复杂,特别是在恶劣海况下,单一传感器采集的信息只能从某一角度或侧重点获取环境信息,因而对目标或场景的描述能力具有一定的局限性,抵抗外界的干扰能力较弱,为准确地识别目标信息带来了较大的挑战。本发明针对水面无人艇复杂、多变的工作环境,提供了一种基于多模态传感器的水面无人艇环境信息融合感知方法,使无人艇及时根据环境的变化调整自身姿态及状态,在执行任务时能具备更好的环境感知能力,在保障安全的前提下自主地完成各项任务。本发明利用激光雷达、航海雷达、高清摄像机、红外热成像仪多种传感器相结合获得更为准确的环境模型。首先,将四个传感器在时间空间上配准,将激光雷达与可见光摄像机联合标定、将可见光摄像机与红外摄像机标定;将激光雷达点云数据进行坐标转换与自身航迹消除处理、聚类处理得到较为稳定的目标信息,然后将航海雷达所返还目标数据用扩展卡尔曼滤波相融合,得到初步的环境模型;利用不同目标的方位信息引导光学相机自动追踪目标,将所得高清图像与红外图像相融合,依靠目标检测算法为目标贴上类别属性标签,同时将目标检测信息与雷达信息、自身艇姿态信息相融合,对海面目标进行危险等级度评估,不断构建完善海上环境感知模型,提高水面无人艇自身的智能化水平与执行任务的能力。
一种基于多模态传感器的水面无人艇环境信息融合感知方法,包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为
Figure BDA0003149679270000081
ρn表示第n组数据中目标与水面无人艇的距离,
Figure BDA0003149679270000082
表示第n组数据中目标在极坐标系下与极轴的角度,
Figure BDA0003149679270000083
表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
Figure BDA0003149679270000091
其中,bkx表示目标在笛卡尔坐标系x轴的位置;bky表示目标在笛卡尔坐标系y轴的位置;vk表示目标的速度,
Figure BDA0003149679270000092
ψk表示目标的偏航角,
Figure BDA0003149679270000093
Figure BDA0003149679270000094
表示目标的偏航角速度
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,ψ1=0,
Figure BDA0003149679270000095
即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令
Figure BDA0003149679270000096
Figure BDA0003149679270000097
ψ1=0,
Figure BDA0003149679270000098
Figure BDA0003149679270000099
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
Figure BDA00031496792700000910
则:
Figure BDA00031496792700000911
Figure BDA00031496792700000912
Figure BDA0003149679270000101
则:
Figure BDA0003149679270000102
Figure BDA0003149679270000103
Figure BDA0003149679270000104
Figure BDA0003149679270000105
Figure BDA0003149679270000106
Figure BDA0003149679270000107
协方差矩阵Qk的计算方法为:
Figure BDA0003149679270000108
其中,
Figure BDA0003149679270000109
为设定的常数;
Figure BDA00031496792700001010
为目标的历史偏航角速度变换倍率的方差,根据集合X中的数据计算;
步骤4.4:计算目标的CTRV运动状态的预测值
Figure BDA0003149679270000111
及状态误差协方差矩阵的预测值
Figure BDA0003149679270000112
Figure BDA0003149679270000113
Figure BDA0003149679270000114
其中,υk为噪声;
Figure BDA0003149679270000115
其中,υa,k为纵向加速度噪声,其均值为0,方差为
Figure BDA0003149679270000116
Figure BDA0003149679270000117
为角加速度噪声,其均值为0,方差为
Figure BDA0003149679270000118
步骤4.5:若第k组数据zk为激光雷达采集的数据,则执行步骤4.6;若第k组数据zk为航海雷达采集的数据
Figure BDA0003149679270000119
则执行步骤4.7;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
Figure BDA00031496792700001110
Figure BDA00031496792700001111
其中:
Figure BDA00031496792700001112
Figure BDA00031496792700001113
Figure BDA00031496792700001114
Figure BDA00031496792700001115
Figure BDA0003149679270000121
其中,I为单位阵;
Figure BDA0003149679270000122
为笛卡尔坐标系x轴方向的噪声标准差;
Figure BDA0003149679270000123
为笛卡尔坐标系y轴方向的噪声标准差;
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
Figure BDA0003149679270000124
Figure BDA0003149679270000125
其中,
Figure BDA0003149679270000126
Figure BDA0003149679270000127
Figure BDA0003149679270000128
Figure BDA0003149679270000129
Figure BDA00031496792700001210
Figure BDA00031496792700001211
其中,
Figure BDA00031496792700001212
为不同参数的噪声标准差;
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
本发明针对水面无人艇复杂、多变的工作环境,克服了单一传感器采集的信息只能从某一角度或侧重点获取环境信息、对目标或场景的描述能力具有一定的局限性、抵抗外界的干扰能力较弱的缺点,发挥了各个传感器的优点并加以结合,构成了一种探测距离远、精度高、可靠性强的感知系统,能对不同海面目标判别其类别并获取绝对经纬度位置,对目标进行不同等级威胁度评估,在场景理解的误差、运动引起的图像噪声、弱光或恶劣海况下具有较高的鲁棒性,保证无人艇在执行任务时能提供更为完善的海洋环境感知模型,安全高效的执行各项任务。
实施例1:
本发明提供了一种基于多模态传感器的水面无人艇环境信息融合感知方法,针对水面无人艇复杂、多变的工作环境,在执行任务时能具备更好的环境感知能力,使无人艇及时根据环境的变化调整自身姿态及状态,在保障安全的前提下自主地完成各项任务。由于海面环境复杂,特别是在恶劣海况下,单一传感器采集的信息只能从某一角度或侧重点获取环境信息,因而对目标或场景的描述能力具有一定的局限性,抵抗外界的干扰能力较弱,为准确地识别目标信息带来了较大的挑战。本发明利用激光雷达、航海雷达、高清摄像机、红外热成像仪多种传感器相结合获得更为准确的环境模型。首先,将四个传感器在时间空间上配准,利用张正友标定法建立的3D-2D转换关系将激光雷达与可见光摄像机联合标定,可见光与红外双摄像机标定。激光雷达点云数据进行坐标转换与自身航迹消除处理,然后利用GB-DBSCAN聚类处理得到较为稳定的目标信息,然后将航海雷达所返还目标数据用扩展卡尔曼滤波相融合,得到初步的环境模型。后利用不同目标的方位信息引导光学相机自动追踪目标,将所得高清图像与红外图像相融合,依靠目标检测算法为目标贴上类别属性标签,同时将目标检测信息与雷达信息、自身艇姿态信息构建Bayes模型相融合,对海面目标进行危险等级度评估,不断构建完善海上环境感知模型,提高水面无人艇自身的智能化水平与执行任务的能力。
本发明运用多种传感器,设计一种新的适用于无人艇的信息融合环境感知技术策略。多艇上装载的激光雷达与航海雷达不间断获取目标信息构建周围初步环境模型,得到目标方位信息引导光学传感器感知目标,红外热成像仪与可见光摄像机进行特征层面融合,融合后的图像可应用于目标检测算法,得到目标属性类别。同时将目标检测信息与雷达信息、自身艇姿态信息构建Bayes模型相融合,对海面目标进行危险等级度评估,不断构建完善海上环境感知模型,提高水面无人艇自身的智能化水平与执行任务的能力。其具体的实施方法如下。
步骤1,将四个传感器在时间空间上配准,激光雷达与航海雷达坐标系相互转换对齐,后对激光雷达和相机进行标定,利用张正友标定法求出可见光相机内参矩阵,根据光学传感器和激光雷达固定装配位置的相对关系解算出转换矩阵,其公式为S0m=K[R,T]M,光学传感器捕获的图像数据用(u,v)表示,激光雷达捕获的3维点阵云用(x,y,z)表示,目标是建立一个转化矩阵M,将3维点(x,y,z)映射到2维点(u,v),坐标转移公式为S0m=K[R,T]M。
Figure BDA0003149679270000141
其中利用张氏标定法得到相机内参
Figure BDA0003149679270000151
fu以及fv是水平方向和垂直方向的有效焦距,u0以及v0是图像平面(image plane)的中心点,又称主点坐标。然后根据光电吊舱和激光雷达固定装配位置的相对关系得到外参矩阵[R,T],其中S0为尺度因子,K为摄像机内参,R为旋转矩阵,T为平移向量。
Figure BDA0003149679270000152
Figure BDA0003149679270000153
Figure BDA0003149679270000154
步骤2,利用光学传感器收集海面环境图像数据,用无人艇所载相机对海面不同目标拍摄足够的视频资料,后处理为图片数据,用LabelImage工具对海面数据集进行标注,后处理达到神经网络训练要求输入格式。
步骤3,利用所采集到的海面目标数据集在卷积神经网络中进行训练,对训练数据集进行Mosaic数据增强等操作后,使用轻量化卷积神经网络,以达到实时性要求与嵌入式设备运行需求。经过训练测试,筛选得到最优的目标检测模型。
步骤4,利用Conditional Removal滤波器删除激光雷达点云中无效数据与自身航迹所产生的杂乱点云。由于海面环境的特殊性以及无人艇航行时航迹的影响,激光雷达扫描得到的点云密度分布不均匀,产生散乱的干扰点。这会给点云特征识别以及点云聚类带来干扰,造成目标漏检或错检。Conditional Removal滤波器以每一个点为圆心生成临域,计算临域内点至圆心之间的欧氏距离,以此为判断条件并且将临域内点数目过少的点识别为离群干扰点,同时设定艇自身螺旋桨后适当的区域(1m~2m)为航迹区域并将其一并从数据集中去除。由此去除水面上的杂乱数据点与艇自身航迹所产生的点云。
步骤5,将过滤后的点云使用GB-DBSCAN聚类算法得到艇身周围不同目标的点云簇。与传统的聚类算法如K-Means相比,DBSCAN算法最大的优点是它不需要事先明确具体的簇的数量,且数据集簇的形状可以是非凸的,但当空间聚类的密度不均匀、聚类间距差相差很大时,聚类质量较差,因为这种情况下参数MinPts和Eps选取困难。GB-DBSCAN算法无需固定的参数,利用雷达半径与角率来创建grid网格,无须判断点与点之间的欧氏距离,只需考虑grid与grid之间是否密度相连,极大的减少了计算量,节约了聚类所需的时间。将聚类后的点云簇提取质心作为海面目标的特征点。
步骤6,据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换并构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步的环境模型。
为海面目标构建CTRV运动模型,其移动向量五个分量为:
Figure BDA0003149679270000161
其中v为速度,ψ为角度,
Figure BDA0003149679270000162
为角速度,
Figure BDA0003149679270000163
为角速度变换倍率。非线性运动方程xk+1=f(xkk)展开为:
Figure BDA0003149679270000164
Figure BDA0003149679270000171
υk为噪声,υa,k为纵向加速度噪声,其均值为0方差为
Figure BDA0003149679270000172
Figure BDA0003149679270000173
为角加速度噪声,均值为0方差为
Figure BDA0003149679270000174
k为时刻。
则运动模型Jacobian矩阵为:
Figure BDA0003149679270000175
Figure BDA0003149679270000176
Figure BDA0003149679270000177
Figure BDA0003149679270000178
Figure BDA0003149679270000179
协方差矩阵Q为:
Figure BDA00031496792700001710
激光雷达为笛卡尔坐标系,可检测到位置,没有速度信息,其测量值zlidar=(px,py),航海雷达为极坐标系,可检测到距离、角度、速度,但精度较低,其测量值
Figure BDA0003149679270000181
对于航海雷达,没有变换矩阵可将状态向量映射至极坐标中,因此需要将笛卡尔坐标系映射到极坐标系,即:
Figure BDA0003149679270000182
Figure BDA0003149679270000183
对于Lidar激光雷达测量模型,因为激光雷达仅测量位置信息,故将状态向量中速度与角速度信息舍去。R为传感器测量中的不确定性,每个位置成分Px,Py都会受到随机噪声的影响。测量噪声ω是一个均值为零,协方差为R的分布,即ω~N(0,R)。因此R矩阵是均值为零的2×2协方差矩阵,是噪声矢量ω和它的转置乘积的期望值。其变换矩阵H与噪声测量协方差矩阵为
Figure BDA0003149679270000184
Figure BDA0003149679270000185
其中
Figure BDA0003149679270000186
为x,y方向的噪声标准差。
航海雷达非线性映射线性化后的Jacobian矩阵Hj与噪声矩阵为:
Figure BDA0003149679270000187
Figure BDA0003149679270000191
其中
Figure BDA0003149679270000192
为不同参数的噪声标准差。
最终融合步骤分为预测与修正当下,公式如下所示:
预测部分:
Figure BDA0003149679270000193
修正当下部分:
Figure BDA0003149679270000194
其中Pk为状态误差协方差矩阵,可用测量噪声方差来初始化矩阵,I为n维的单位矩阵。激光雷达与航海雷达预测部分公式一致,参数更新部分稍有不同,航海雷达需用
Figure BDA0003149679270000195
替换即可。当收到目标激光雷达或航海雷达的测量值时,依次执行预测与修正部分即可,具体融合流程步骤如图2所示。
步骤7,红外与可见光双摄像机标定,利用单目摄像机标定得到红外和可见光摄像机的外参数Ri,Rv,ti,tv,然后利用下式求得红外和可见光摄像机间的空间变换关系R′,t′。
Figure BDA0003149679270000196
R′为可见光摄像机相对红外热成像仪的旋转矩阵、t′为可见光摄像机相对红外热成像仪的平移向量。可见光摄像机坐标系与红外摄像机坐标系关系为:
Figure BDA0003149679270000197
由此可得红外与可见光图像配准关系:
Figure BDA0003149679270000201
将配准后的红外与可见光图像利用深度学习方法进行特征融合,其网络框架与DenseFuse类似,包含编码器,融合层和解码器三个部分。编码器层设置4层3x3卷积以提取多层次深度特征,融合策略上在传统的Spatial Attention Model上用了基于L1范数和Softmax运算的新方法,公式如下:
Figure BDA0003149679270000202
其中fv为可见光图像的特征图,fi为红外图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值,fi(x,y)为特征图fi在(x,y)处的特征值,f(x,y)为特征图f在(x,y)处的特征值。由此最大限度结合红外图像与可见光的图像的优势,再利用解码器将融合后的图像重构,得到新的同时具有二者优势的海洋环境目标感知光学样本。
步骤8,利用所得雷达海洋环境模型,针对海面不同目标方位引导光学传感器追踪环境内目标,即控制云台姿态角转动至目标所在方位角,同时用直通滤波器将雷达数据在光学传感器视场范围内进行筛选,即通过光学传感器的视场角以及云台姿态角,将雷达点限制在相机感受野范围内,节省计算量。
Figure BDA0003149679270000203
其中β为云台方位角,ε为相机视场角度,px,py为雷达目标的xy坐标。将筛选后的雷达数据投影至二维图像坐标系中。
步骤9,利用目标检测算法对融合后的图像进行识别,并输出所检测到目标的属性、置信度、目标中心像素的位置和检测框左上角、右下角的坐标,分别记为(A11..An1,B11..B1n),(C11...Cn1,D11…D1n)。
步骤10,根据投影至图像平面的雷达坐标,计算点与目标检测框的重叠度,即雷达映射至图像坐标系中点(X,Y),若点在目标检测框内或框外所允许的误差范围内,即:
An1≤X≤Cn1,B1n≤Y≤D1n (23)
则将目标检测的结果赋予该雷达点坐标,即雷达点被贴上该目标类别与置信度的属性标签。若目标检测框无映射雷达点坐标,则给予一定的噪声误差允许范围ε,即:
Figure BDA0003149679270000211
以此来扩大验证范围。剩余无目标检测结果框或未映射至图像上的雷达点,则赋予-1的属性标签,代表暂无目标属性类别,等待后续光学传感器验证识别。
步骤11,对所得海洋环境模型内的点进行坐标转换,依靠无人艇所载惯导得到艇自身的姿态,即航向、位置、速度等,将模型内目标点的相对坐标转换为绝对坐标即经纬度信息,相对速度与航向转换为绝对速度与航向:
Figure BDA0003149679270000212
Figure BDA0003149679270000213
其中x0,y0,θ,lat0,lon0为无人艇雷达所检测到的目标相对坐标与航向及自身经纬度信息,R为地球半径,lat1,lon1为转换后经纬度信息。同时利用目标检测信息、目标雷达信息与自身艇姿态信息构建加权模型融合,对海面目标进行危险等级度评估:
Figure BDA0003149679270000214
Tp,Tt,Td分别代表着目标属性(Properties),目标趋势(Tendency)与目标距离(Distance),可根据不同任务需求分为多个等级,等级可换算为实数1~N,w1,w2,w3为三个威胁度等级因子,依据实际海域情况可进行调整,最后加权获得总的威胁度等级T,构建更为完善的海洋环境智能感知模型。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种基于多模态传感器的水面无人艇环境信息融合感知方法,其特征在于,包括以下步骤:
步骤1:将激光雷达、航海雷达、可见光摄像机和红外摄像机在时间空间上配准;将激光雷达与航海雷达坐标系相互转换对齐后,对激光雷达和可见光摄像机进行标定,建立将激光雷达捕获的三维点映射到可见光摄像机捕获的图像数据中的二维点的转化矩阵;
步骤2:利用可见光摄像机和红外摄像机收集海面环境图像数据,对不同的目标海面物体采集足够的样本后进行标注,得到海面目标数据集;利用海面目标数据集在卷积神经网络中进行训练,得到目标检测模型;
步骤3:获取激光雷达捕获的三维点阵云,通过滤波器过滤点云中无效数据与水面无人艇自身航迹所产生的杂乱点云;根据过滤后的点云聚类获取水面无人艇周围不同目标的点云簇并提取质心作为海面目标的特征点;
步骤4:根据不同海况调整航海雷达参数并将所返还的目标数据进行坐标转换,构建海面目标CTRV运动模型,利用卡尔曼滤波和扩展卡尔曼滤波将激光雷达数据与航海雷达数据相融合,得到初步海洋环境感知模型;
步骤5:将红外摄像机与可见光摄像机联合标定配准,将配准后的红外图像与可见光图像进行特征融合,重构融合后的图像,得到海洋环境目标感知光学样本;
f(x,y)=w1fv(x,y)+w2fi(x,y)
其中,fv为可见光图像的特征图,fv(x,y)为特征图fv在(x,y)处的特征值;fi为红外图像的特征图,fi(x,y)为特征图fi在(x,y)处的特征值;w1、w2为融合权重;
步骤6:根据步骤4获取的初步海洋环境感知模型,针对海面不同目标方位引导可见光摄像机追踪目标,控制云台姿态角转动至目标所在方位角,在可见光摄像机的视场范围内对环境模型内雷达数据进行筛选,将雷达数据对应的目标限制在可见光摄像机的视场范围,将筛选后的雷达数据投影至二维图像坐标系中;
步骤7:对步骤5中获取的海洋环境目标感知光学样本进行目标检测,输出所检测到目标的属性、置信度、目标中心像素的位置、目标检测框的左上角坐标、目标检测框的右下角坐标;
步骤8:根据投影至二维图像坐标系的雷达坐标点,计算雷达坐标点与目标检测框的重叠度,即雷达数据映射至图像坐标系的中点;若映射点在目标检测框内或框外所允许的误差范围内,则将目标检测的结果赋予该雷达坐标点,即将雷达坐标点贴上该目标类别与置信度的属性标签;否则,判定雷达坐标点代表暂无目标属性类别,等待后续光学传感器验证识别;
步骤9:对贴有目标类别与置信度属性标签的雷达坐标点对应的初步海洋环境感知模型中的目标点进行坐标转换,将初步海洋环境感知模型内目标点的相对坐标转换为经纬度信息,将相对速度与航向转换为绝对速度与航向;
步骤10:同时利用目标检测信息、目标雷达信息与水面无人艇自身姿态信息构建加权融合模型,对海面目标进行危险等级度评估,构建完整的海洋环境感知模型。
2.根据权利要求1所述的一种基于多模态传感器的水面无人艇环境信息融合感知方法,其特征在于:所述的步骤4具体包括以下步骤:
步骤4.1:将激光雷达采集的数据集Zlidar={zl1,zl2,...,zlM}和航海雷达采集的数据集Zradar={zr1,zr2,...,zrN}整合为集合Zlr,并将集合Zlr中各组数据按照时间升序排列;
其中,集合Zlidar和Zradar中的数据均为按时间升序排列;激光雷达采集的数据为zlm=(pmx,pmy),pmx表示第m组数据中目标在笛卡尔坐标系x轴的位置,pmy表示第m组数据中目标在笛卡尔坐标系y轴的位置,m=1,2,...,M,M为激光雷达采集数据的总次数;航海雷达采集的数据为
Figure FDA0003149679260000021
ρn表示第n组数据中目标与水面无人艇的距离,
Figure FDA0003149679260000022
表示第n组数据中目标在极坐标系下与极轴的角度,
Figure FDA0003149679260000023
表示第n组数据中目标的速度,n=1,2,...,N,N为航海雷达采集数据的总次数;
步骤4.2:从集合Zlr中取第一组数据z1,初始化目标的CTRV运动状态x1和状态误差协方差矩阵P1;初始化k=2;构造目标的CTRV运动状态集合X,初始化X={x1};
目标的CTRV运动状态xk为:
Figure FDA0003149679260000024
其中,bkx表示目标在笛卡尔坐标系x轴的位置;bky表示目标在笛卡尔坐标系y轴的位置;vk表示目标的速度,
Figure FDA0003149679260000025
ψk表示目标的偏航角,
Figure FDA0003149679260000026
Figure FDA0003149679260000027
表示目标的偏航角速度
初始化协方差矩阵P1=E,E为单位阵;
若第一组数据z1为激光雷达采集的数据zl1,则令b1x=p1x,b1y=p1y,v1=0,Ψ1=0,
Figure FDA0003149679260000028
即x1=[p1x,p1y,0,0,0]T;若第一组数据z1为航海雷达采集的数据zr1,则令
Figure FDA0003149679260000029
Figure FDA0003149679260000031
Ψ1=0,
Figure FDA0003149679260000032
Figure FDA0003149679260000033
步骤4.3:从集合Zlr中取第k组数据zk,计算耗时Δtk=t(zk)-t(zk-1),计算运动模型f(xk-1)与其Jacobian矩阵Fk和协方差矩阵Qk
运动模型f(xk-1)与其Jacobian矩阵Fk的计算方法为:
Figure FDA0003149679260000034
则:
Figure FDA0003149679260000035
Figure FDA0003149679260000036
Figure FDA0003149679260000037
则:
Figure FDA0003149679260000038
Figure FDA0003149679260000039
Figure FDA00031496792600000310
Figure FDA00031496792600000311
Figure FDA0003149679260000041
Figure FDA0003149679260000042
协方差矩阵Qk的计算方法为:
Figure FDA0003149679260000043
其中,
Figure FDA0003149679260000044
为设定的常数;
Figure FDA0003149679260000045
为目标的历史偏航角速度变换倍率的方差,根据集合X中的数据计算;
步骤4.4:计算目标的CTRV运动状态的预测值
Figure FDA0003149679260000046
及状态误差协方差矩阵的预测值
Figure FDA0003149679260000047
Figure FDA0003149679260000048
Figure FDA0003149679260000049
其中,υk为噪声;
Figure FDA00031496792600000410
其中,υa,k为纵向加速度噪声,其均值为0,方差为
Figure FDA00031496792600000411
Figure FDA00031496792600000412
Figure FDA00031496792600000413
为角加速度噪声,其均值为0,方差为
Figure FDA00031496792600000414
Figure FDA00031496792600000415
步骤4.5:若第k组数据zk为激光雷达采集的数据,则执行步骤4.6;若第k组数据zk为航海雷达采集的数据
Figure FDA0003149679260000051
则执行步骤4.7;
步骤4.6:根据激光雷达变换矩阵Hlidar与噪声测量协方差矩阵Rlidar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
Figure FDA0003149679260000052
Figure FDA0003149679260000053
其中:
Figure FDA0003149679260000054
Figure FDA0003149679260000055
Figure FDA0003149679260000056
Figure FDA0003149679260000057
Figure FDA0003149679260000058
其中,I为单位阵;
Figure FDA0003149679260000059
为笛卡尔坐标系x轴方向的噪声标准差;
Figure FDA00031496792600000510
为笛卡尔坐标系y轴方向的噪声标准差;
步骤4.7:根据航海雷达非线性映射线性化后的Jacobian矩阵Hradar与噪声矩阵Rradar,更新目标的CTRV运动状态xk及状态误差协方差矩阵Pk,将xk加入集合X后执行步骤4.8;
Figure FDA00031496792600000511
Figure FDA00031496792600000512
其中,
Figure FDA00031496792600000513
Figure FDA00031496792600000514
Figure FDA0003149679260000061
Figure FDA0003149679260000062
Figure FDA0003149679260000063
Figure FDA0003149679260000064
其中,
Figure FDA0003149679260000065
为不同参数的噪声标准差;
步骤4.8:若k<M+N,则令k=k+1,并返回步骤4.3;否则,输出目标的CTRV运动状态集合X={x1,x2,...,xM+N},与激光雷达感知范围外航海雷达远距离目标数据集合并,得到初步海洋环境感知模型。
CN202110760932.6A 2021-07-06 2021-07-06 基于多模态传感器的水面无人艇环境信息融合感知方法 Active CN113627473B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110760932.6A CN113627473B (zh) 2021-07-06 2021-07-06 基于多模态传感器的水面无人艇环境信息融合感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110760932.6A CN113627473B (zh) 2021-07-06 2021-07-06 基于多模态传感器的水面无人艇环境信息融合感知方法

Publications (2)

Publication Number Publication Date
CN113627473A true CN113627473A (zh) 2021-11-09
CN113627473B CN113627473B (zh) 2023-09-29

Family

ID=78379109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110760932.6A Active CN113627473B (zh) 2021-07-06 2021-07-06 基于多模态传感器的水面无人艇环境信息融合感知方法

Country Status (1)

Country Link
CN (1) CN113627473B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114166137A (zh) * 2021-11-26 2022-03-11 沪东中华造船(集团)有限公司 一种船对船加注间距智能检测系统及方法
CN114202684A (zh) * 2021-11-29 2022-03-18 哈尔滨工程大学 一种适用于水面环境的点云数据投影方法、系统及装置
CN114910901A (zh) * 2022-05-30 2022-08-16 深圳市大族机器人有限公司 一种协作机器人高精度多传感器融合测距系统
CN116245961A (zh) * 2023-03-02 2023-06-09 之江实验室 一种基于多类传感器信息的融合感知方法及系统
CN116310689A (zh) * 2023-03-24 2023-06-23 中国科学院空天信息创新研究院 一种无人智能多模态信息融合与目标感知系统及作业方法
CN117454316A (zh) * 2023-12-25 2024-01-26 安徽蔚来智驾科技有限公司 多传感器的数据融合方法、存储介质及智能设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN110414396A (zh) * 2019-07-19 2019-11-05 中国人民解放军海军工程大学 一种基于深度学习的无人艇感知融合算法
CN110850403A (zh) * 2019-11-18 2020-02-28 中国船舶重工集团公司第七0七研究所 一种多传感器决策级融合的智能船水面目标感知识别方法
CN111536967A (zh) * 2020-04-09 2020-08-14 江苏大学 一种基于ekf的多传感器融合温室巡检机器人跟踪方法
US20210012165A1 (en) * 2018-03-29 2021-01-14 Shanghai Zttvision Technologies Co.Ltd Data processing method and device based on multi-sensor fusion, and multi-sensor fusion method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210012165A1 (en) * 2018-03-29 2021-01-14 Shanghai Zttvision Technologies Co.Ltd Data processing method and device based on multi-sensor fusion, and multi-sensor fusion method
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN110414396A (zh) * 2019-07-19 2019-11-05 中国人民解放军海军工程大学 一种基于深度学习的无人艇感知融合算法
CN110850403A (zh) * 2019-11-18 2020-02-28 中国船舶重工集团公司第七0七研究所 一种多传感器决策级融合的智能船水面目标感知识别方法
CN111536967A (zh) * 2020-04-09 2020-08-14 江苏大学 一种基于ekf的多传感器融合温室巡检机器人跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
罗亚萍;尚永强;柳志博;赵耕云;李万敏;林小军;: "基于多传感器信息融合的无人车导航系统设计", 兰州工业学院学报, no. 02 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114166137A (zh) * 2021-11-26 2022-03-11 沪东中华造船(集团)有限公司 一种船对船加注间距智能检测系统及方法
CN114202684A (zh) * 2021-11-29 2022-03-18 哈尔滨工程大学 一种适用于水面环境的点云数据投影方法、系统及装置
CN114910901A (zh) * 2022-05-30 2022-08-16 深圳市大族机器人有限公司 一种协作机器人高精度多传感器融合测距系统
CN116245961A (zh) * 2023-03-02 2023-06-09 之江实验室 一种基于多类传感器信息的融合感知方法及系统
CN116245961B (zh) * 2023-03-02 2023-09-01 之江实验室 一种基于多类传感器信息的融合感知方法及系统
CN116310689A (zh) * 2023-03-24 2023-06-23 中国科学院空天信息创新研究院 一种无人智能多模态信息融合与目标感知系统及作业方法
CN116310689B (zh) * 2023-03-24 2023-09-08 中国科学院空天信息创新研究院 一种无人智能多模态信息融合与目标感知系统及作业方法
CN117454316A (zh) * 2023-12-25 2024-01-26 安徽蔚来智驾科技有限公司 多传感器的数据融合方法、存储介质及智能设备
CN117454316B (zh) * 2023-12-25 2024-04-26 安徽蔚来智驾科技有限公司 多传感器的数据融合方法、存储介质及智能设备

Also Published As

Publication number Publication date
CN113627473B (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
CN113627473B (zh) 基于多模态传感器的水面无人艇环境信息融合感知方法
CN110850403B (zh) 一种多传感器决策级融合的智能船水面目标感知识别方法
CN103149939B (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN113359097B (zh) 一种毫米波雷达和相机联合标定的方法
CN110456330B (zh) 一种相机与激光雷达之间外参无目标自动标定方法及系统
CN110889324A (zh) 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN109239709B (zh) 一种无人船的局部环境地图自主构建方法
CN112734765B (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN107817679B (zh) 基于红外与可见光融合跟踪的舰船水炮控制系统及方法
CN109212545A (zh) 基于主动视觉的多信源目标跟踪测量系统及跟踪方法
CN109631911B (zh) 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
CN107300382B (zh) 一种用于水下机器人的单目视觉定位方法
CN112698302A (zh) 一种颠簸路况下的传感器融合目标检测方法
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN113933828A (zh) 一种无人艇环境自适应多尺度目标检测方法及系统
CN112802195B (zh) 一种基于声呐的水下机器人连续占据建图方法
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
CN112950671A (zh) 一种无人机对运动目标实时高精度参数测量方法
CN109764864B (zh) 一种基于颜色识别的室内无人机位姿获取方法及系统
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN114973037B (zh) 一种无人机智能检测与同步定位多目标的方法
CN112489118B (zh) 一种无人机机载传感器组外参快速标定方法
CN115792912A (zh) 一种弱观测条件下基于视觉与毫米波雷达融合的水面无人艇环境感知方法及系统
CN112862862B (zh) 基于人工智能视觉跟踪的飞机自主受油装置及应用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant