CN109670411A - 基于生成对抗网络的内河船舶点云数据深度图像处理方法和系统 - Google Patents

基于生成对抗网络的内河船舶点云数据深度图像处理方法和系统 Download PDF

Info

Publication number
CN109670411A
CN109670411A CN201811451765.1A CN201811451765A CN109670411A CN 109670411 A CN109670411 A CN 109670411A CN 201811451765 A CN201811451765 A CN 201811451765A CN 109670411 A CN109670411 A CN 109670411A
Authority
CN
China
Prior art keywords
point cloud
cloud data
depth image
ship
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811451765.1A
Other languages
English (en)
Other versions
CN109670411B (zh
Inventor
谢磊
刘颖
郭文轩
张笛
张金奋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN201811451765.1A priority Critical patent/CN109670411B/zh
Publication of CN109670411A publication Critical patent/CN109670411A/zh
Application granted granted Critical
Publication of CN109670411B publication Critical patent/CN109670411B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明公开了一种基于生成对抗网络的内河船舶点云数据深度图像处理方法和系统,利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,进而获得激光雷达点云数据的深度图像,并将激光点云数据和深度图像作为一对数据样本,对构建的生成对抗网络进行训练,最后将过往船舶点云数据对应的深度图像输入到训练好的生成器中,识别船舶吃水相关的关键部位特征,根据识别结果判断船舶是否存在超载。本发明利用生成对抗网络对激光点云与其深度图像之间的内在潜在关联进行学习,比传统的激光三维重建方法更容易获取船舶干舷尺寸。

Description

基于生成对抗网络的内河船舶点云数据深度图像处理方法和 系统
技术领域
本发明涉及一种基于生成对抗网络的内河船舶点云数据深度图像处理方法和系统,属于激光雷达和人工智能技术领域。
背景技术
在人工智能领域,激光雷达是最重要的环境探测及感知设备之一。考虑到未来我国内河航运管理的信息化程度的不断提高,激光雷达在内河船舶自动检测领域的应用将越来越多。从工作原理来看,激光雷达可以按照预设的角度快速地发射和接收反射回来的激光脉冲束,以激光点云的方式来感知航道中的船舶,并对一定范围内的船舶进行点云处理和重构,构建船舶的三维形态结构。由于光的直线传播和速度固定两个特征,其所形成的三维图像能够为海事管理人员提供高精度的船舶尺寸信息。
但是,在内河环境中,激光雷达的应用也存在一定的问题。其中包括:(1)激光点云数据量非常大,在大范围的场景处理过程中效率较低,耗时太长;(2)单个激光束在遇到具备一定反射系数的障碍物时会及时反射回来,在遇到反射系数低的物体可能由于穿透和吸收而形成点云空洞;(3)受预定的激光雷达张角和感知区域影响,激光雷达对周围环境扫描所形成的点云形态不一;(4)不同的激光雷达所能够获取的点云数据稀疏度不同,在实际应用中往往会受建设成本的约束而不得不使用高数据稀疏度的设备。
针对激光雷达点云数据在内河船舶检测过程中存在的不足,可以将其处理成深度图像,在保持其高感知精度的前提下,降低计算复杂度、简化处理过程、提高处理效率。因此,如何由内河船舶的激光点云数据生成最优的深度图像,以最大程度的保留其感知精度,在内河船舶检测和感知领域具有非常重要的作用。
本发明针对岸基激光雷达采集的船舶点云数据,基于生成对抗网络提供了一种面向内河船舶的激光点云处理深度图像的方法,并将激光点云数据和深度图像作为一对数据样本,对条件对抗网络进行训练。条件对抗网络包含生成器和判别器两个网络,两个网络之间相互竞争,最终输出一个优化的深度卷积网络模型,实现基于深度学习的船舶外形轮廓自动检测及识别功能。本发明所提供的深度图像生成和处理系统,能够较好地识别内河船舶的外形轮廓,特别是船舶的干舷尺寸,从而有效提高海事执法人员判断船舶航行状态以及是否超载的准确性。
发明内容
本发明针对激光雷达在内河船舶自动检测过程中受环境影响大、点云数据处理及重构效率低等问题,提供了一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,包括如下步骤:
步骤1,利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,具体包括如下子步骤;
步骤1-1,分别提取海事雷达所提供的雷达图像数据和激光雷达所提供的点云数据,根据数据上携带的时间戳标志形成数据同步;
步骤1-2,对时间同步之后的海事雷达图像进行处理,获取激光雷达检测期间的船舶航迹线信息,获取该时刻的船舶航向角θ;
步骤1-3,针对激光雷达采集的点云数据进行预处理,得到船舶外轮廓的点云数据;
步骤2,利用步骤1-2中提取的船舶航向角θ,以其垂直方向作为点云数据的投影方向,获取点云数据的深度图像;
步骤3,构建基于生成对抗网络模型,所述的生成对抗网络包含生成器和判别器两个网络,将分类后的激光点云数据和对应的深度图像作为一对数据样本,输入到生成对抗网络模型进行训练,使得目标函数达到最优;
步骤4,采集过往船舶外轮廓的点云数据和雷达图像,并利用步骤(1)和(2)处理获得对应的深度图像,将点云数据对应的深度图像输入到训练好的生成器中,识别船舶吃水相关的关键部位特征,计算船舶干舷高度,从而判断船舶是否存在超载。
进一步的,步骤1-2中获取船舶航向角θ的具体实现方式如下,
定义激光雷达开始检测船舶的时刻为时间戳a,分别提取海事雷达在时间戳a之前和之后最近的两帧图像,定义这两帧图像的采集时刻为时间戳b和时间戳c,船舶在这两个时刻的雷达图像上的位置分别为A和B,则:A、B两点连线即为船舶航向,航向与预设基准直线的夹角为船舶航向角θ,其中预设的基准直线即为0度航向角。
进一步的,步骤1-3中所述的预处理为聚类处理。
进一步的,步骤2中获取点云数据的深度图像的具体实现步骤如下,
步骤2-1,以激光雷达布设点为坐标原点,以船舶航向角θ的正方向作为x轴,以平行于地面且垂直于船舶航向角θ的方向作为y轴,在y轴上距离坐标原点Mmax距离处做一个垂直于y轴的平面,选择该平面为投影面,令各点云数据沿y轴向该平面投影,获取各点云数据到投影平面的距离M(i,j);
步骤2-2,根据点云中各点到投影平面的距离,计算投影后所得到的投影点的像素灰度值G,其中,距离越远的点在投影后得到的投影点灰度越深,反之则灰度越浅,由此生成点云数据的深度图像,深度图像的像素灰度范围为[0,255],黑色为0,白色为255;各像素点的灰度值为G(i,j),
G(i,j)=255*M(i,j)/max(M(i,j))
步骤2-3,针对船舶点云数据的深度图像,人工提取船舶关键部位特征,包括船舶干舷、驾驶台、货舱以及其他部位共4个类别的深度图像。
进一步的,步骤3的具体实现方式如下,
步骤3-1,人工对激光点云数据进行分类,获得船舶干舷、驾驶台、货舱以及其它部位共4个类别的激光点云数据,将相对应类别的激光点云数据和深度图像作为一对数据样本,利用该数据样本形成的训练数据集进行训练,其中,生成器内置一个二维卷积神经网络,通过激光雷达点云数据生成的二维深度图像进行训练;判别器内置一个三维卷积神经网络,通过原始的激光雷达点云数据进行训练,输出训练好的二维卷积神经网络和三维卷积神经网络;
步骤3-2,将生成器和判别器合成构建生成对抗网络模型,并计算判别器中三维卷积神经网络判别结果与生成器中二维卷积神经网络判别结果之间的差别,最终,所述的生成对抗网络模型借助生成器和判别器两个网络之间的竞争,使得如下目标函数LcGAN达到最优,函数LcGAN如下式:
LcGAN(G,D)=Eu,y∈data(u,y)[LogD(u,y)]+Eu∈data(u),z[Log(1-D(u,G(u,z)))]
其中,G、D分别表示生成器和判别器,data为训练数据集,(u,y)为其中的一对图像,u为激光点云数据,y为深度图像;判别器D(u,y)为在观测点云数据u条件下,D判断图像y为真实图像的慨率;生成器G(u,z)为学习点云数据u的条件下生成的深度图像;(1-D(u,G(u,z)))为D判断G(u,z)生成深度图像的概率;E是判别器在整个训练数据集上的总体判别期望均值。
本发明还提供一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,包括如下模块:
数据获取模块,用于利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,具体包括如下子模块;
数据同步子模块,用于分别提取海事雷达所提供的雷达图像数据和激光雷达所提供的点云数据,根据数据上携带的时间戳标志形成数据同步;
船舶航向角获取子模块,用于对时间同步之后的海事雷达图像进行处理,获取激光雷达检测期间的船舶航迹线信息,获取该时刻的船舶航向角θ;
点云数据获取子模块,用于针对激光雷达采集的点云数据进行预处理,得到船舶外轮廓的点云数据;
深度图像获取模块,用于利用船舶航向角获取子模块中提取的船舶航向角θ,以其垂直方向作为点云数据的投影方向,获取点云数据的深度图像;
生成对抗网络模型构建模块,用于构建基于生成对抗网络模型,所述的生成对抗网络包含生成器和判别器两个网络,将分类后的激光点云数据和对应的深度图像作为一对数据样本,输入到生成对抗网络模型进行训练,使得目标函数达到最优;
船舶状态判读模块,用于采集过往船舶外轮廓的点云数据和雷达图像,并利用数据获取模块和深度图像获取模块处理获得对应的深度图像,将点云数据对应的深度图像输入到训练好的生成器中,识别船舶吃水相关的关键部位特征,计算船舶干舷高度,从而判断船舶是否存在超载。
进一步的,船舶航向角获取子模块中获取船舶航向角θ的具体实现方式如下,
定义激光雷达开始检测船舶的时刻为时间戳a,分别提取海事雷达在时间戳a之前和之后最近的两帧图像,定义这两帧图像的采集时刻为时间戳b和时间戳c,船舶在这两个时刻的雷达图像上的位置分别为A和B,则:A、B两点连线即为船舶航向,航向与预设基准直线的夹角为船舶航向角θ,其中预设的基准直线即为0度航向角。
进一步的,点云数据获取子模块中所述的预处理为聚类处理。
进一步的深度图像获取模块中获取点云数据的深度图像的具体实现步骤如下,
步骤2-1,以激光雷达布设点为坐标原点,以船舶航向角θ的正方向作为x轴,以平行于地面且垂直于船舶航向角θ的方向作为y轴,在y轴上距离坐标原点Mmax距离处做一个垂直于y轴的平面,选择该平面为投影面,令各点云数据沿y轴向该平面投影,获取各点云数据到投影平面的距离M(i,j);
步骤2-2,根据点云中各点到投影平面的距离,计算投影后所得到的投影点的像素灰度值G,其中,距离越远的点在投影后得到的投影点灰度越深,反之则灰度越浅,由此生成点云数据的深度图像,深度图像的像素灰度范围为[0,255],黑色为0,白色为255;各像素点的灰度值为G(i,j),
G(i,j)=255*M(i,j)/max(M(i,j))
步骤2-3,针对船舶点云数据的深度图像,人工提取船舶关键部位特征,包括船舶干舷、驾驶台、货舱以及其他部位共4个类别的深度图像。
进一步的,生成对抗网络模型构建模块的具体实现方式如下,
步骤3-1,人工对激光点云数据进行分类,获得船舶干舷、驾驶台、货舱以及其它部位共4个类别的激光点云数据,将相对应类别的激光点云数据和深度图像作为一对数据样本,利用该数据样本形成的训练数据集进行训练,其中,生成器内置一个二维卷积神经网络,通过激光雷达点云数据生成的二维深度图像进行训练;判别器内置一个三维卷积神经网络,通过原始的激光雷达点云数据进行训练,输出训练好的二维卷积神经网络和三维卷积神经网络;
步骤3-2,将生成器和判别器合成构建生成对抗网络模型,并计算判别器中三维卷积神经网络判别结果与生成器中二维卷积神经网络判别结果之间的差别,最终,所述的生成对抗网络模型借助生成器和判别器两个网络之间的竞争,使得如下目标函数LcGAN达到最优,函数LcGAN如下式:
LcGAN(G,D)=Eu,y∈data(u,y)[LogD(u,y)]+Eu∈data(u),z[Log(1-D(u,G(u,z)))]
其中,G、D分别表示生成器和判别器,data为训练数据集,(u,y)为其中的一对图像,u为激光点云数据,y为深度图像;判别器D(u,y)为在观测点云数据u条件下,D判断图像y为真实图像的慨率;生成器G(u,z)为学习点云数据u的条件下生成的深度图像;(1-D(u,G(u,z)))为D判断G(u,z)生成深度图像的概率;E是判别器在整个训练数据集上的总体判别期望均值。
本发明的优点和积极效果在于:
本发明通过激光雷达点云数据的深度图像来实现对内河船舶状态的实时监管,能够充分利用激光雷达的高精度检测能力,同时有效避免了激光点云数据量过大导致的耗时太大、实时性不足等问题;本发明通过优化的数据集,即在船舶航向与船舶中线方向平行情况下进行训练集采集,能够进一步消除水流以及船舶漂移对深度图像生成的影响;本发明利用生成对抗网络对激光点云与其深度图像之间的内在潜在关联进行学习,比传统的激光三维重建方法更容易获取船舶干舷尺寸,且生成网络和判别网络之间存在相互竞争,能够加速网络参数调整趋向更优结果。
附图说明
图1为本发明实施例流程图。
图2为岸基激光雷达采集得到的原始点云数据示意图。
图3为原始点云数据投影得到的深度图像。
图4为深度图像中心点与最高、最低干舷像素点夹角及距离示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
本发明实施例提供了一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,包括如下步骤:
(1)利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,图1为所采集的船舶外轮廓点云数据。具体包括以下步骤:
步骤1-1:分别提取海事雷达所提供的雷达图像数据和激光雷达所提供的点云数据,根据数据上携带的时间戳标志形成数据同步。时间戳是一个能表示一份数据在某个特定时间之前已经存在的、完整的、可验证的数据,它能唯一地标识某一刻的时间。本发明要求雷达图像数据和点云数据在预先约定的位置提供相应的时间戳字符序列。
步骤1-2:对时间同步之后的海事雷达图像进行处理,获取激光雷达检测期间的船舶航迹线信息,获取该时刻的船舶航向角。定义激光雷达开始检测船舶的时刻为时间戳a,分别提取海事雷达在时间戳a之前和之后最近的两帧图像,定义这两帧图像的采集时刻为时间戳b和时间戳c,船舶在这两个时刻的雷达图像上的位置分别为A和B。则:A、B两点连线即为船舶航向,航向与预设基准直线的夹角为船舶航向角θ,其中预设的基准直线即为0度航向角。
步骤1-3:针对激光雷达采集的点云数据进行预处理,由于从水面和内河对岸有可能反馈少部分的离散点云数据,因此可通过聚类处理将这些离散的点云数据滤除,以得到船舶外轮廓的点云数据。
(2)利用步骤1-2中提取的船舶航向角θ,以其垂直方向作为点云数据的投影方向,获取深度图像。其中,点云数据的深度图像也称为距离影像,是指将点云数据中各点沿一个指定的投影方向对某平面做正投影,并将所得到的距离(深度)值M转换为像素值G之后得到的图像。
步骤2-1:以激光雷达布设点为坐标原点,以船舶航向角θ的正方向作为x轴,以平行于地面且垂直于船舶航向角θ的方向作为y轴,在y轴上距离坐标原点Mmax距离处做一个垂直于y轴的平面,选择该平面为投影面,令各点云数据沿y轴向该平面投影,获取各点云数据到投影平面的距离M(i,j)。
步骤2-2:根据点云中各点到投影平面的距离,计算投影后所得到的投影点的像素灰度值G。其中,距离越远的点在投影后得到的投影点灰度越深,反之则灰度越浅,由此生成点云数据的深度图像,如图2所示。深度图像的像素灰度范围为[0,255],黑色为0;白色为255。各像素点的灰度值为G(i,j)。
G(i,j)=255*M(i,j)/max(M(i,j))
其中i,j为像素点坐标。
步骤2-3:针对船舶点云数据的深度图像,人工提取船舶关键部位特征,包括船舶干舷、驾驶台、货舱以及其它部位共4个类别的深度图像,用于训练深度卷积网络模型。
(3)构建基于生成对抗网络的模型,所述的生成对抗网络包含生成器和判别器两个网络,两个网络之间互相竞争,使得目标函数达到最优。
步骤3-1:人工对激光点云数据进行分类,获得船舶干舷、驾驶台、货舱以及其它部位共4个类别的激光点云数据,将相对应类别的激光点云数据和深度图像作为一对数据样本,利用该数据样本形成的训练数据集进行训练。其中,生成器内置一个二维卷积神经网络,通过激光雷达点云数据生成的二维深度图像进行训练;判别器内置一个三维卷积神经网络,通过原始的激光雷达点云数据进行训练,输出这两个训练好的卷积网络。
步骤3-2:将生成器和判别器合成构建生成对抗网络模型,并计算判别器中三维卷积神经网络判别结果与生成器中二维卷积神经网络判别结果之间的差别。最终,所述的生成对抗网络模型借助生成器和判别器两个网络之间的竞争,使得如下目标函数LcGAN达到最优。函数LcGAN如下式:
LcGAN(G,D)=Eu,y∈data(u,y)[LogD(u,y)]+Eu∈data(u),z[Log(1-D(u,G(u,z)))]
其中,G、D分别表示生成器和判别器,data为训练数据集,(u,y)为其中的一对图像,u为激光点云数据,y为深度图像;判别器D(u,y)为在观测点云数据u条件下,D判断图像y为真实图像的慨率;生成器G(u,z)为学习点云数据u的条件下生成的深度图像;(1-D(u,G(u,z)))为D判断G(u,z)生成深度图像的概率;E是判别器在整个训练数据集上的总体判别期望均值。
(4)现场采集过往船舶外轮廓的点云数据和雷达图像,并利用步骤(1)和(2)处理获得对应的深度图像,将点云数据对应的深度图像输入训练好的二维卷积神经网络,获取船舶各组成部分,包括:船舶干舷、驾驶台、货舱以及其他部位,识别船舶吃水相关的关键特征,根据识别效果判断船舶是否存在超载。
步骤4-1:现场布设相关检测设备,其中海事雷达布设在塔架上,通过雷达图像提取船舶航向信息;激光雷达布设在河岸边,紧邻航道,现场采集过往船舶外轮廓的点云数据。
步骤4-2:借助生成对抗网络的生成器所训练的二维卷积神经网络,对生成的深度图像进行识别,计算船舶干舷高度,判断船舶是否存在超载。另外,也可以通过计算货舱和驾驶台的高度,为判断船舶是否超高、超限提供参考,具体判断方法需要海事部门根据航道的不同情况再进行判断。
采用二维卷积神经网络对深度图像进行处理后,神经网络将根据前期训练得到的网络参数,从深度图像中自动提取出船舶干舷、货舱和驾驶台所在区域,并按照“干舷”、“货舱”、“驾驶台”、“其它部位”四个类别进行分类。由于深度图像的提取过程中,以船舶航向角θ的垂直方向作为激光点云数据的投影方向,因此深度图像在船舶高度方向上基本没有形变,只需计算出“干舷”、“货舱”、“驾驶台”在深度图像中的像素高度,即可换算出上述部位的实际高度。
以“干舷”为例,假设其在深度图像上提取出来的是一个m*n像素大小的图片(m为干舷的像素长度,n为干舷露出水面的像素高度);深度图像中心点即为激光发射点;干舷最高点红和图像中心点连线与图像中心点所在水平线的夹角为αmin,干舷最高点与激光发射点的距离为Mmin;干舷最低点与图像中心点连线与图像中心点所在水平线的夹角为αmax,干舷最低点与激光发射点的距离为Mmax,如图4所示:
则相关换算步骤如下:
(a)根据公式G(i,j)=255*M(i,j)/max(M(i,j)),可以进行逆变化得到:Mmin=Gmin*max(M(i,j))/255,Mmax=Gmax*max(M(i,j))/255;
(b)干舷最高点与图像中心点的垂直距离:Hmin=Mmin*sin(αmin),干舷最低点与图像中心点的垂直距离:Hmax=Mmax*sin(αmax);
(c)干舷垂直高度为:H=Hmax-Hmin,这就是干舷露出水面的高度。
本发明实施例还提供一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,包括如下模块:
数据获取模块,用于利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,具体包括如下子模块;
数据同步子模块,用于分别提取海事雷达所提供的雷达图像数据和激光雷达所提供的点云数据,根据数据上携带的时间戳标志形成数据同步;
船舶航向角获取子模块,用于对时间同步之后的海事雷达图像进行处理,获取激光雷达检测期间的船舶航迹线信息,获取该时刻的船舶航向角θ;
点云数据获取子模块,用于针对激光雷达采集的点云数据进行预处理,得到船舶外轮廓的点云数据;
深度图像获取模块,用于利用船舶航向角获取子模块中提取的船舶航向角θ,以其垂直方向作为点云数据的投影方向,获取点云数据的深度图像;
生成对抗网络模型构建模块,用于构建基于生成对抗网络模型,所述的生成对抗网络包含生成器和判别器两个网络,将分类后的激光点云数据和对应的深度图像作为一对数据样本,输入到生成对抗网络模型进行训练,使得目标函数达到最优;
船舶状态判读模块,用于采集过往船舶外轮廓的点云数据和雷达图像,并利用数据获取模块和深度图像获取模块处理获得对应的深度图像,将点云数据对应的深度图像输入到训练好的生成器中,识别船舶吃水相关的关键部位特征,计算船舶干舷高度,从而判断船舶是否存在超载。
各模块的具体实现和各步骤相应,本发明不予撰述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (10)

1.一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,其特征在于,包括如下步骤:
步骤1,利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,具体包括如下子步骤;
步骤1-1,分别提取海事雷达所提供的雷达图像数据和激光雷达所提供的点云数据,根据数据上携带的时间戳标志形成数据同步;
步骤1-2,对时间同步之后的海事雷达图像进行处理,获取激光雷达检测期间的船舶航迹线信息,获取该时刻的船舶航向角θ;
步骤1-3,针对激光雷达采集的点云数据进行预处理,得到船舶外轮廓的点云数据;
步骤2,利用步骤1-2中提取的船舶航向角θ,以其垂直方向作为点云数据的投影方向,获取点云数据的深度图像;
步骤3,构建基于生成对抗网络模型,所述的生成对抗网络包含生成器和判别器两个网络,将分类后的激光点云数据和对应的深度图像作为一对数据样本,输入到生成对抗网络模型进行训练,使得目标函数达到最优;
步骤4,采集过往船舶外轮廓的点云数据和雷达图像,并利用步骤(1)和(2)处理获得对应的深度图像,将点云数据对应的深度图像输入到训练好的生成器中,识别船舶吃水相关的关键部位特征,计算船舶干舷高度,从而判断船舶是否存在超载。
2.如权利要求1所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,其特征在于:步骤1-2中获取船舶航向角θ的具体实现方式如下,
定义激光雷达开始检测船舶的时刻为时间戳a,分别提取海事雷达在时间戳a之前和之后最近的两帧图像,定义这两帧图像的采集时刻为时间戳b和时间戳c,船舶在这两个时刻的雷达图像上的位置分别为A和B,则:A、B两点连线即为船舶航向,航向与预设基准直线的夹角为船舶航向角θ,其中预设的基准直线即为0度航向角。
3.如权利要求1所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,其特征在于:步骤1-3中所述的预处理为聚类处理。
4.如权利要求1所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,其特征在于:步骤2中获取点云数据的深度图像的具体实现步骤如下,
步骤2-1,以激光雷达布设点为坐标原点,以船舶航向角θ的正方向作为x轴,以平行于地面且垂直于船舶航向角θ的方向作为y轴,在y轴上距离坐标原点Mmax距离处做一个垂直于y轴的平面,选择该平面为投影面,令各点云数据沿y轴向该平面投影,获取各点云数据到投影平面的距离M(i,j);
步骤2-2,根据点云中各点到投影平面的距离,计算投影后所得到的投影点的像素灰度值G,其中,距离越远的点在投影后得到的投影点灰度越深,反之则灰度越浅,由此生成点云数据的深度图像,深度图像的像素灰度范围为[0,255],黑色为0,白色为255;各像素点的灰度值为G(i,j),
G(i,j)=255*M(i,j)/max(M(i,j))
步骤2-3,针对船舶点云数据的深度图像,人工提取船舶关键部位特征,包括船舶干舷、驾驶台、货舱以及其他部位共4个类别的深度图像。
5.如权利要求4所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理方法,其特征在于:步骤3的具体实现方式如下,
步骤3-1,人工对激光点云数据进行分类,获得船舶干舷、驾驶台、货舱以及其它部位共4个类别的激光点云数据,将相对应类别的激光点云数据和深度图像作为一对数据样本,利用该数据样本形成的训练数据集进行训练,其中,生成器内置一个二维卷积神经网络,通过激光雷达点云数据生成的二维深度图像进行训练;判别器内置一个三维卷积神经网络,通过原始的激光雷达点云数据进行训练,输出训练好的二维卷积神经网络和三维卷积神经网络;
步骤3-2,将生成器和判别器合成构建生成对抗网络模型,并计算判别器中三维卷积神经网络判别结果与生成器中二维卷积神经网络判别结果之间的差别,最终,所述的生成对抗网络模型借助生成器和判别器两个网络之间的竞争,使得如下目标函数LcGAN达到最优,函数LcGAN如下式:
LcGAN(G,D)=Eu,y∈data(u,y)[LogD(u,y)]+Eu∈data(u),z[Log(1-D(u,G(u,z)))]
其中,G、D分别表示生成器和判别器,data为训练数据集,(u,y)为其中的一对图像,u为激光点云数据,y为深度图像;判别器D(u,y)为在观测点云数据u条件下,D判断图像y为真实图像的慨率;生成器G(u,z)为学习点云数据u的条件下生成的深度图像;(1-D(u,G(u,z)))为D判断G(u,z)生成深度图像的概率;E是判别器在整个训练数据集上的总体判别期望均值。
6.一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,其特征在于,包括如下模块:
数据获取模块,用于利用标定好的海事雷达和激光雷达采集监管区域内的船舶航行状态,获取同步时间戳的船舶航向信息和激光点云数据,具体包括如下子模块;
数据同步子模块,用于分别提取海事雷达所提供的雷达图像数据和激光雷达所提供的点云数据,根据数据上携带的时间戳标志形成数据同步;
船舶航向角获取子模块,用于对时间同步之后的海事雷达图像进行处理,获取激光雷达检测期间的船舶航迹线信息,获取该时刻的船舶航向角θ;
点云数据获取子模块,用于针对激光雷达采集的点云数据进行预处理,得到船舶外轮廓的点云数据;
深度图像获取模块,用于利用船舶航向角获取子模块中提取的船舶航向角θ,以其垂直方向作为点云数据的投影方向,获取点云数据的深度图像;
生成对抗网络模型构建模块,用于构建基于生成对抗网络模型,所述的生成对抗网络包含生成器和判别器两个网络,将分类后的激光点云数据和对应的深度图像作为一对数据样本,输入到生成对抗网络模型进行训练,使得目标函数达到最优;
船舶状态判读模块,用于采集过往船舶外轮廓的点云数据和雷达图像,并利用数据获取模块和深度图像获取模块处理获得对应的深度图像,将点云数据对应的深度图像输入到训练好的生成器中,识别船舶吃水相关的关键部位特征,计算船舶干舷高度,从而判断船舶是否存在超载。
7.如权利要求6所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,其特征在于:船舶航向角获取子模块中获取船舶航向角θ的具体实现方式如下,
定义激光雷达开始检测船舶的时刻为时间戳a,分别提取海事雷达在时间戳a之前和之后最近的两帧图像,定义这两帧图像的采集时刻为时间戳b和时间戳c,船舶在这两个时刻的雷达图像上的位置分别为A和B,则:A、B两点连线即为船舶航向,航向与预设基准直线的夹角为船舶航向角θ,其中预设的基准直线即为0度航向角。
8.如权利要求6所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,其特征在于:点云数据获取子模块中所述的预处理为聚类处理。
9.如权利要求6所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,其特征在于:深度图像获取模块中获取点云数据的深度图像的具体实现步骤如下,
步骤2-1,以激光雷达布设点为坐标原点,以船舶航向角θ的正方向作为x轴,以平行于地面且垂直于船舶航向角θ的方向作为y轴,在y轴上距离坐标原点Mmax距离处做一个垂直于y轴的平面,选择该平面为投影面,令各点云数据沿y轴向该平面投影,获取各点云数据到投影平面的距离M(i,j);
步骤2-2,根据点云中各点到投影平面的距离,计算投影后所得到的投影点的像素灰度值G,其中,距离越远的点在投影后得到的投影点灰度越深,反之则灰度越浅,由此生成点云数据的深度图像,深度图像的像素灰度范围为[0,255],黑色为0,白色为255;各像素点的灰度值为G(i,j),
G(i,j)=255*M(i,j)/max(M(i,j))
步骤2-3,针对船舶点云数据的深度图像,人工提取船舶关键部位特征,包括船舶干舷、驾驶台、货舱以及其他部位共4个类别的深度图像。
10.如权利要求9所述的一种基于生成对抗网络的内河船舶点云数据深度图像处理系统,其特征在于:生成对抗网络模型构建模块的具体实现方式如下,
步骤3-1,人工对激光点云数据进行分类,获得船舶干舷、驾驶台、货舱以及其它部位共4个类别的激光点云数据,将相对应类别的激光点云数据和深度图像作为一对数据样本,利用该数据样本形成的训练数据集进行训练,其中,生成器内置一个二维卷积神经网络,通过激光雷达点云数据生成的二维深度图像进行训练;判别器内置一个三维卷积神经网络,通过原始的激光雷达点云数据进行训练,输出训练好的二维卷积神经网络和三维卷积神经网络;
步骤3-2,将生成器和判别器合成构建生成对抗网络模型,并计算判别器中三维卷积神经网络判别结果与生成器中二维卷积神经网络判别结果之间的差别,最终,所述的生成对抗网络模型借助生成器和判别器两个网络之间的竞争,使得如下目标函数LcGAN达到最优,函数LcGAN如下式:
LcGAN(G,D)=Eu,y∈data(u,y)[LogD(u,y)]+Eu∈data(u),z[Log(1-D(u,G(u,z)))]
其中,G、D分别表示生成器和判别器,data为训练数据集,(u,y)为其中的一对图像,u为激光点云数据,y为深度图像;判别器D(u,y)为在观测点云数据u条件下,D判断图像y为真实图像的慨率;生成器G(u,z)为学习点云数据u的条件下生成的深度图像;(1-D(u,G(u,z)))为D判断G(u,z)生成深度图像的概率;E是判别器在整个训练数据集上的总体判别期望均值。
CN201811451765.1A 2018-11-30 2018-11-30 基于生成对抗网络的船舶点云深度图像处理方法和系统 Active CN109670411B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811451765.1A CN109670411B (zh) 2018-11-30 2018-11-30 基于生成对抗网络的船舶点云深度图像处理方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811451765.1A CN109670411B (zh) 2018-11-30 2018-11-30 基于生成对抗网络的船舶点云深度图像处理方法和系统

Publications (2)

Publication Number Publication Date
CN109670411A true CN109670411A (zh) 2019-04-23
CN109670411B CN109670411B (zh) 2020-08-07

Family

ID=66143433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811451765.1A Active CN109670411B (zh) 2018-11-30 2018-11-30 基于生成对抗网络的船舶点云深度图像处理方法和系统

Country Status (1)

Country Link
CN (1) CN109670411B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231605A (zh) * 2019-05-09 2019-09-13 深圳市速腾聚创科技有限公司 人体行为的识别方法、装置、计算机设备和存储介质
CN110246171A (zh) * 2019-06-10 2019-09-17 西北工业大学 一种实时单目视频深度估计方法
CN110245619A (zh) * 2019-06-17 2019-09-17 杭州海康睿和物联网技术有限公司 一种用于自动扶梯上超限物体判断方法及系统
CN110427799A (zh) * 2019-06-12 2019-11-08 中国地质大学(武汉) 基于生成对抗网络的人手深度图像数据增强方法
CN110610152A (zh) * 2019-09-10 2019-12-24 西安电子科技大学 基于判别特征学习无监督网络的多光谱云检测方法
CN110675418A (zh) * 2019-09-26 2020-01-10 深圳市唯特视科技有限公司 一种基于ds证据理论的目标轨迹优化方法
CN111899353A (zh) * 2020-08-11 2020-11-06 长春工业大学 一种基于生成对抗网络的三维扫描点云孔洞填补方法
CN111899328A (zh) * 2020-07-10 2020-11-06 西北工业大学 一种基于rgb数据与生成对抗网络的点云三维重建方法
CN111984012A (zh) * 2020-08-21 2020-11-24 闽江学院 一种无人船自主避障及航线规划的方法
CN112115744A (zh) * 2019-06-20 2020-12-22 北京京东叁佰陆拾度电子商务有限公司 点云数据的处理方法及装置、计算机存储介质、电子设备
CN112291024A (zh) * 2019-07-25 2021-01-29 北京地平线机器人技术研发有限公司 信息同步方法、信息同步装置及电子设备
CN112529783A (zh) * 2019-09-19 2021-03-19 北京京东乾石科技有限公司 图像处理方法、图像处理装置、存储介质和电子设备
CN112684469A (zh) * 2021-01-14 2021-04-20 江苏恒澄交科信息科技股份有限公司 基于海事雷达图像的航道特征方向识别方法及系统
CN112686106A (zh) * 2020-12-21 2021-04-20 武汉理工大学 一种视频图像转海事雷达图像的方法
CN112884838A (zh) * 2021-03-16 2021-06-01 重庆大学 一种机器人自主定位方法
CN112927233A (zh) * 2021-01-27 2021-06-08 湖州市港航管理中心 一种船用激光雷达与视频联合目标捕捉方法
CN113050121A (zh) * 2021-03-22 2021-06-29 上海海事大学 一种船舶导航系统和船舶导航方法
CN113177264A (zh) * 2021-05-11 2021-07-27 北京邮电大学 基于生成对抗网络的海域目标物多维数据仿真方法及系统
CN113269040A (zh) * 2021-04-25 2021-08-17 南京大学 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN113947729A (zh) * 2021-11-12 2022-01-18 华南农业大学 基于竞争网络的植株点云数据深度图像处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120314221A1 (en) * 2011-06-08 2012-12-13 Deon Austin Harkey Laser surveillance system
CN107862293A (zh) * 2017-09-14 2018-03-30 北京航空航天大学 基于对抗生成网络的雷达生成彩色语义图像系统及方法
CN108197582A (zh) * 2018-01-10 2018-06-22 武汉理工大学 基于深度学习的海事雷达图像处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120314221A1 (en) * 2011-06-08 2012-12-13 Deon Austin Harkey Laser surveillance system
CN107862293A (zh) * 2017-09-14 2018-03-30 北京航空航天大学 基于对抗生成网络的雷达生成彩色语义图像系统及方法
CN108197582A (zh) * 2018-01-10 2018-06-22 武汉理工大学 基于深度学习的海事雷达图像处理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LEI XIE ET AL.: "Overloaded Ship Identification based on Image Processing and Kalman Filtering", 《JOURNAL OF CONVERGENCE INFORMATION TECHNOLOGY(JCIT)》 *
赵永富 等: "基于激光扫描的船舶超载超吃水自动监测系统", 《计算机系统应用》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231605A (zh) * 2019-05-09 2019-09-13 深圳市速腾聚创科技有限公司 人体行为的识别方法、装置、计算机设备和存储介质
CN110246171A (zh) * 2019-06-10 2019-09-17 西北工业大学 一种实时单目视频深度估计方法
CN110246171B (zh) * 2019-06-10 2022-07-19 西北工业大学 一种实时单目视频深度估计方法
CN110427799A (zh) * 2019-06-12 2019-11-08 中国地质大学(武汉) 基于生成对抗网络的人手深度图像数据增强方法
CN110427799B (zh) * 2019-06-12 2022-05-06 中国地质大学(武汉) 基于生成对抗网络的人手深度图像数据增强方法
CN110245619A (zh) * 2019-06-17 2019-09-17 杭州海康睿和物联网技术有限公司 一种用于自动扶梯上超限物体判断方法及系统
CN112115744A (zh) * 2019-06-20 2020-12-22 北京京东叁佰陆拾度电子商务有限公司 点云数据的处理方法及装置、计算机存储介质、电子设备
CN112291024B (zh) * 2019-07-25 2023-11-03 北京地平线机器人技术研发有限公司 信息同步方法、信息同步装置及电子设备
CN112291024A (zh) * 2019-07-25 2021-01-29 北京地平线机器人技术研发有限公司 信息同步方法、信息同步装置及电子设备
CN110610152B (zh) * 2019-09-10 2022-03-22 西安电子科技大学 基于判别特征学习无监督网络的多光谱云检测方法
CN110610152A (zh) * 2019-09-10 2019-12-24 西安电子科技大学 基于判别特征学习无监督网络的多光谱云检测方法
CN112529783B (zh) * 2019-09-19 2024-01-16 北京京东乾石科技有限公司 图像处理方法、图像处理装置、存储介质和电子设备
CN112529783A (zh) * 2019-09-19 2021-03-19 北京京东乾石科技有限公司 图像处理方法、图像处理装置、存储介质和电子设备
CN110675418A (zh) * 2019-09-26 2020-01-10 深圳市唯特视科技有限公司 一种基于ds证据理论的目标轨迹优化方法
CN111899328A (zh) * 2020-07-10 2020-11-06 西北工业大学 一种基于rgb数据与生成对抗网络的点云三维重建方法
CN111899353A (zh) * 2020-08-11 2020-11-06 长春工业大学 一种基于生成对抗网络的三维扫描点云孔洞填补方法
CN111984012A (zh) * 2020-08-21 2020-11-24 闽江学院 一种无人船自主避障及航线规划的方法
CN112686106A (zh) * 2020-12-21 2021-04-20 武汉理工大学 一种视频图像转海事雷达图像的方法
CN112686106B (zh) * 2020-12-21 2023-12-08 武汉理工大学 一种视频图像转海事雷达图像的方法
CN112684469A (zh) * 2021-01-14 2021-04-20 江苏恒澄交科信息科技股份有限公司 基于海事雷达图像的航道特征方向识别方法及系统
CN112927233A (zh) * 2021-01-27 2021-06-08 湖州市港航管理中心 一种船用激光雷达与视频联合目标捕捉方法
CN112884838B (zh) * 2021-03-16 2022-11-15 重庆大学 一种机器人自主定位方法
CN112884838A (zh) * 2021-03-16 2021-06-01 重庆大学 一种机器人自主定位方法
CN113050121A (zh) * 2021-03-22 2021-06-29 上海海事大学 一种船舶导航系统和船舶导航方法
CN113269040A (zh) * 2021-04-25 2021-08-17 南京大学 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN113177264B (zh) * 2021-05-11 2022-06-24 北京邮电大学 基于生成对抗网络的海域目标物多维数据仿真方法及系统
CN113177264A (zh) * 2021-05-11 2021-07-27 北京邮电大学 基于生成对抗网络的海域目标物多维数据仿真方法及系统
CN113947729A (zh) * 2021-11-12 2022-01-18 华南农业大学 基于竞争网络的植株点云数据深度图像处理方法及系统

Also Published As

Publication number Publication date
CN109670411B (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
CN109670411A (zh) 基于生成对抗网络的内河船舶点云数据深度图像处理方法和系统
CN105787439B (zh) 一种基于卷积神经网络的深度图像人体关节定位方法
CN105373135B (zh) 一种基于机器视觉的飞机入坞引导和机型识别的方法及系统
CN107862293A (zh) 基于对抗生成网络的雷达生成彩色语义图像系统及方法
CN108537191B (zh) 一种基于结构光摄像头的三维人脸识别方法
CN105138954A (zh) 一种图像自动筛选查询识别系统
CN106127137A (zh) 一种基于3d轨迹分析的目标检测识别算法
CN110288586A (zh) 一种基于可见光图像数据的多尺度输电线路缺陷检测方法
CN109255375A (zh) 基于深度学习的全景图像对象检测方法
CN104951773A (zh) 一种实时人脸识别监视系统
CN104036546A (zh) 一种基于自适应形变模型的任意视角人脸三维重构方法
CN103247045A (zh) 一种从多视图中得到人造场景主方向及图像边缘的方法
CN106600643B (zh) 一种基于轨迹分析的人数统计方法
CN106228569A (zh) 一种适用于水质监测的鱼体运动速度检测方法
CN109711389A (zh) 一种基于Faster R-CNN和HMM的哺乳母猪姿态转换识别方法
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN106599776B (zh) 一种基于轨迹分析的人数统计方法
CN116682140A (zh) 基于注意力机制多模态融合的三维人体姿态估计算法
CN115063579A (zh) 基于二维图像和三维点云投影的列车定位销松动检测方法
CN113255779B (zh) 多源感知数据融合识别方法、系统及计算机可读存储介质
CN106709432A (zh) 基于双目立体视觉的人头检测计数方法
WO2022075853A1 (en) Generating three-dimensional skeleton representations of aquatic animals using machine learning
CN109684990A (zh) 一种基于视频的打电话行为检测方法
CN110059537A (zh) 一种基于Kinect传感器的三维人脸数据获取方法及装置
CN105513071A (zh) 一种地形图图式质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant