CN110245569B - 基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法 - Google Patents
基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法 Download PDFInfo
- Publication number
- CN110245569B CN110245569B CN201910412469.9A CN201910412469A CN110245569B CN 110245569 B CN110245569 B CN 110245569B CN 201910412469 A CN201910412469 A CN 201910412469A CN 110245569 B CN110245569 B CN 110245569B
- Authority
- CN
- China
- Prior art keywords
- ship
- jet flow
- jet
- water cannon
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法,包括以下步骤:S1通过光电云台设备采集视频图像信息;S2、通过射流分割模型对所述视频图像信息进行处理,提取射流轮廓和船舶轮廓;S3、基于提取结果判断是否存在射流打击,若没有射流,则返回S2;若有射流,则进入S4;S4、基于轮廓分析判断射流是否击中船舶,若射流未击中船舶,则进入S5;若射流击中船舶,则将船舶位置作为打击坐标,进入S7;S5、结合目标船舶的坐标位置与射流实际打击点的位置计算水炮射击存在的偏差;S6、基于射流实际打击点的位置和计算出的偏差,通过坐标转换方法,转化为水炮的打击坐标,S7、将打击坐标反馈给水炮控制器以修正水炮的控制参数。
Description
技术领域
本发明涉及船舶技术领域,尤其涉及一种基于射流边缘分析和打击偏差反馈的目标船舶打击效果评估方法。
背景技术
随着世界经济全球化的发展,更多的船舶来往于世界各大航线。航道上存在随意停泊妨碍交通,他国民船越界,海盗抢劫商船等情况干扰了当今世界海运业的正常发展。目标解决以上问题的常用方式是采用水炮驱逐,但是这些执法水炮需要人工观察是否有射流打击、需要调整水炮径口方位以及观察是否击中海盗船,工作繁琐且工作强度大。
发明内容
本发明的目的在于解决上述现有技术存在的缺陷,提出一种不仅能判断出船舶打击时是否有射流,同时也能判断是否集中目标,并将击中目标结果反馈给船载水炮。
基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法,包括以下步骤:
S1、通过光电云台设备采集视频图像信息;
S2、通过射流分割模型对所述视频图像信息进行处理,提取射流轮廓和船舶轮廓;
S3、基于提取结果判断是否存在射流打击,若没有射流,则返回S2;若有射流,则进入S4;
S4、基于轮廓分析判断射流是否击中船舶,若射流未击中船舶,则进入S5;若射流击中船舶,则将船舶位置作为打击坐标,进入S7;
S5、结合目标船舶的坐标位置与射流实际打击点的位置计算水炮射击存在的偏差;
S6、基于射流实际打击点的位置和计算出的偏差,通过坐标转换方法,转化为水炮的打击坐标,
S7、将打击坐标反馈给水炮控制器以修正水炮的控制参数。
进一步的,S2中,所述射流分割模型为基于深度学习的语义分割模型,所述的对视频图像信息进行处理包括将图像中射击所形成的射流影像从图像中分割出来。
进一步的,S4中轮廓分析具体包括:
S41、均匀采样,设定一个距离d,在射流轮廓上以间隔d像素点为步长,取观测点;
S42、构建计算单元,将相邻的点成对连接,组成一组向量,相邻两向量取夹角;
S43、计算相邻两向量之间的夹角,重复步骤S21、S22,直至射流轮廓上的所有点完成计算,生成由夹角角度数据组成的队列;
S44、对上述计算的夹角队列按数值大小进行排序,以数值较小处所在区域作为射流落点区域;
S45、计算角度最小的向量夹角的中线确定轮廓尖锐处的趋向,确定射流实际打击点;
S46、连接所述射流实际打击点所在的两对计算单元的中点,以得到的线段长度作为射流直径。
进一步的,S5中,计算水炮射击存在的偏差具体包括:
S51、获取所述射流实际打击点在二维图像中的坐标(xi,yi);
S52、结合目标船舶的中心点坐标(Xi,Yi)计算二维空间中射流实际打击点与目标船舶中心点的欧式距离:
其中,计算出的ρi是一个二维相对量,反映实际打击点和目标的相对偏差。
进一步的,S6中坐标转换具体包括:
S61、屏幕二维坐标与相机三维坐标转换:
物体由物平面AC投射到投影面EF上,从图像中计算出ED段的像素值;设相机初始方位角为O,图像分辨率为R,标定的视场角为F,计算物体中心相对相机方位角∠BOG
计算物体中心相对相机俯仰角∠BOP,f为相机焦距
求得方位角和俯仰角之后,控制云台转动到相应角度,由激光测距仪测得目标与相机的距离,实现由屏幕坐标系的二维坐标转换到相机坐标系的三维坐标;
S62、云台坐标系到水炮坐标系转换:
相机安装的位置相对于水炮安装的位置存在三维空间偏移,其中OC为两个坐标系之间的偏移量,∠AOD为水炮俯仰角,∠DOF为水炮方位角;设α为相机方位角,Δx为两坐标系之间的x方向上的水平偏移量,Δy为两坐标系之间y方向上的偏移量,水炮方位角计算如下式:
设β为相机方位角,Δy为两坐标系之间的y方向上的水平偏移量,Δz为两坐标系之间z方向上的偏移量,水炮方位角计算如下式:
S63、将水炮方位角和水炮俯仰角信息反馈给水炮控制器,以对目标船舶进行持续精准打击。
有益效果:
本发明提供的基于射流边缘分析和打击偏差反馈的目标船舶打击效果评估方法不仅可以判断出是否有射流打击,同时得到射流实际打击点,反馈给水炮系统,调整水炮打击方位,实现对海盗船实行精准打击。解决了传统方案难以实现的判断是否打中目标以及获取打击效果难题。
附图说明
附图1为本发明实施例中船舶打击效果流程示意图。
附图2为本发明实施例中语义分割模型示意图。
附图3为本发明实施例中射流分割结果示意图。
附图4为本发明实施例中构建计算单元示意图。
附图5为本发明实施例中夹角有效区示意间。
附图6为本发明实施例中屏幕坐标系与相机坐标坐标系示意示意图。
附图7为本发明实施例中相机坐标系在屏幕透视投影示意图。
附图8为本发明实施例中相机坐标系和水炮坐标系绝对位置示意图。
附图9为本发明实施例中相机坐标系和水炮坐标系绝对位置示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明所述的基于射流边缘分析和打击偏差反馈的目标船舶打击效果评估方法主要包括以下步骤:
步骤一:利用光电云台采集图像信息。
步骤二:通过射流分割模型对所述视频图像信息进行处理,提取射流轮廓和船舶轮廓。具体地,为达到实时性的目的,对其进行了限定输入图片分辨率大小和卷积层替换的操作。分割模型输入照片最大边长限制为416像素,使用CUDA加速能使图片处理速度达到20FPS,满足预期的实时性要求,如图2为语义分割模型输入图。通过射流分割模型将所形成射流影像从图像中分割出来,射流分割结果若如图3射流分割结果所示,其中黑色表示背景,白色为射流。
步骤三:基于提取结果判断是否存在射流打击,,若没有射流,则返回步骤一,若有射流,则进入步骤四。
本实施例中,选用mIoU(平均交并比,Mean Intersection over Union)作为射流分割环节性能评价指标。本发明设定当mIoU的值大于0.5时,判断有射流打击,否则无射流打击。
步骤四:基于轮廓分析判断射流是否击中船舶,并计算获取射流实际打击点。具体地,根据轮廓分析识别出的射流轮廓和船舶轮廓来判断射流是否击中船舶,若射流与船舶轮廓有重合部分,则判定击中船舶,反之,则未击中船舶。若射流未击中船舶,则进入步骤五;若射流击中船舶,则将船舶位置作为打击坐标,进入步骤七;
计算获取射流实际打击点过程如下:
(1)、均匀采样,设定一个距离d,在边缘轮廓上以间隔d像素点为步长,取观测点;
(3)、计算两向量之间的夹角,重复步骤(1)、(2),直至所有点完成计算,生成由夹角角度数据组成的队列;
(4)、对上述计算的夹角队列按数值大小进行排序,数值较小处落点所在区域可能性较高;
(5)、实际应用场景中存在水炮由摄像头的左侧(或右侧)向目标射击的情况,因此通过计算向量夹角中线(如图4中β射线所示)确定轮廓尖锐处的趋向来选定射击落点,其中夹角中线应当处于有效区间,区间范围为如图5所示;
(6)、根据步骤(1)、(2)、(3)、(4)、(5)可以得出水炮射流的实际打击点。
步骤五、结合目标船舶的坐标位置与射流实际打击点的位置计算水炮射击存在的偏差。
具体地,射击偏差计算是描述目标船舶坐标与实际打击点偏差的度量。通过计算图像上的打击点,获取打击点在二维图像中的表示(xi,yi),此时利用目标船舶跟踪的结果(Xi,Yi)可以计算出二维空间中落点与目标中心点的欧式距离:
如式(1),计算出来的ρi是一个二维相对量,反映实际打击点和目标的相对偏差,基于二维图像计算的偏差ρi并不是反映实际的三维空间偏差,在此表示的是一种偏差趋向。
步骤六、基于射流实际打击点的位置和计算出的偏差,通过坐标转换方法,转化为水炮的打击坐标。
具体地,光电云台与水炮控制器之间的交互主要涉及到屏幕二维坐标系、相机三维坐标系和以水炮为中心的世界坐标系,故而需对光电云台捕捉到的目标的坐标位置进行预处理,其转换过程如下:
(1)屏幕二维坐标与相机三维坐标转换
屏幕二维坐标与相机三维坐标(如图6所示)转换是将光电云台所获取到的二维图像结合激光测距输出的目标三维位置信息与光电云台距离利用透视投影原理进行计算,如图7所示。
物体由物平面AC投射到投影面EF上,从图像中计算出ED段的像素值。设相机初始方位角为O,图像分辨率为R,标定的视场角为F,计算物体中心相对相机方位角∠BOG,如式(2)所示。俯仰角可用同样方法求得。
求得方位角和俯仰角之后,控制云台转动到相应角度,由激光测距仪测得目标与相机的距离。这样就实现了由屏幕坐标系的二维坐标转换到了相机坐标系的三维坐标。
(2)云台坐标系到水炮坐标系转换
相机安装的位置相对于水炮安装的位置存在三维空间偏移,如图8所示。其中OC为两个坐标系之间的偏移量,∠AOD为水炮俯仰角,∠DOF为水炮方位角。
通过俯视图可以计算出水炮方位角,如图9所示。设α为相机方位角,Δx为两坐标系之间的x方向上的水平偏移量,Δy为两坐标系之间y方向上的偏移量,水炮方位角计算如式(3)所示。同样的,可以计算出水炮俯仰角。
将水炮方位角和水炮俯仰角信息反馈给水炮控制器,以对目标船舶进行持续精准打击。
步骤七、将打击坐标反馈给水炮控制器以修正水炮的控制参数。
以上实施例仅以说明本发明的技术方案,而非对其最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (4)
1.基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法,其特征在于,包括以下步骤:
S1、通过光电云台设备采集视频图像信息;
S2、通过射流分割模型对所述视频图像信息进行处理,提取射流轮廓和船舶轮廓;
S3、基于提取结果判断是否存在射流打击,若没有射流,则返回S2;若有射流,则进入S4;
S4、基于轮廓分析判断射流是否击中船舶,若射流未击中船舶,则进入S5;若射流击中船舶,则将船舶位置作为打击坐标,进入S7;其中,轮廓分析具体包括:
S41、均匀采样,设定一个距离d,在射流轮廓上以间隔d像素点为步长,取观测点;
S42、构建计算单元,将相邻的点成对连接,组成一组向量,相邻两向量取夹角;
S43、计算相邻两向量之间的夹角,重复步骤S41、S42,直至射流轮廓上的所有点完成计算,生成由夹角角度数据组成的队列;
S44、对上述计算的夹角队列按数值大小进行排序,以数值较小处所在区域作为射流落点区域;
S45、计算角度最小的向量夹角的中线确定轮廓尖锐处的趋向,确定射流实际打击点;
S46、连接所述射流实际打击点所在的两对计算单元的中点,以得到的线段长度作为射流直径;
S5、结合目标船舶的坐标位置与射流实际打击点的位置计算水炮射击存在的偏差;
S6、基于射流实际打击点的位置和计算出的偏差,通过坐标转换方法,转化为水炮的打击坐标,
S7、将打击坐标反馈给水炮控制器以修正水炮的控制参数。
2.如权利要求1所述的基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法,其特征在于,S2中,所述射流分割模型为基于深度学习的语义分割模型,对所述视频图像信息进行处理包括将图像中射击所形成的射流影像从图像中分割出来。
4.如权利要求书3所述的基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法,其特征在于,S6中坐标转换具体包括:
S61、屏幕二维坐标与相机三维坐标转换:
物体由物平面AC投射到投影面EF上,从图像中计算出ED段的像素值;设相机初始方位角为O,图像分辨率为R,标定的视场角为F,计算物体中心相对相机方位角∠BOG
计算物体中心相对相机俯仰角∠BOP,f为相机焦距
求得方位角和俯仰角之后,控制云台转动到相应角度,由激光测距仪测得目标与相机的距离,实现由屏幕坐标系的二维坐标转换到相机坐标系的三维坐标;
S62、云台坐标系到水炮坐标系转换:
相机安装的位置相对于水炮安装的位置存在三维空间偏移,其中OC为两个坐标系之间的偏移量,∠AOD为水炮俯仰角,∠DOF为水炮方位角;设α为相机方位角,Δx为两坐标系之间的x方向上的水平偏移量,Δy为两坐标系之间y方向上的偏移量,水炮方位角计算如下式:
设β为相机方位角,Δy为两坐标系之间的y方向上的水平偏移量,Δz为两坐标系之间z方向上的偏移量,水炮俯仰角计算如下式:
S63、将水炮方位角和水炮俯仰角信息反馈给水炮控制器,以对目标船舶进行持续精准打击。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910412469.9A CN110245569B (zh) | 2019-05-17 | 2019-05-17 | 基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910412469.9A CN110245569B (zh) | 2019-05-17 | 2019-05-17 | 基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110245569A CN110245569A (zh) | 2019-09-17 |
CN110245569B true CN110245569B (zh) | 2021-04-20 |
Family
ID=67884571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910412469.9A Active CN110245569B (zh) | 2019-05-17 | 2019-05-17 | 基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110245569B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110944154B (zh) * | 2019-12-05 | 2021-04-09 | 山东八五信息技术有限公司 | 一种高空瞭望摄像头图像中固定物体的标注与识别方法 |
CN112435298B (zh) * | 2020-12-03 | 2024-04-12 | 武汉科技大学 | 基于图像处理和单目视觉的射流闭环控制方法 |
CN112685839B (zh) * | 2021-01-11 | 2022-08-02 | 武汉科技大学 | 基于目标驱动的射流装置运动控制方法 |
CN115092363B (zh) * | 2022-07-14 | 2024-07-23 | 武汉华之洋科技有限公司 | 一种分布式智能侦察打击一体化系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100931319B1 (ko) * | 2008-12-03 | 2009-12-11 | 주식회사 창성에이스산업 | 선박 침입자 탐지 및 격퇴장치 및 그 방법 |
CN206704484U (zh) * | 2017-03-14 | 2017-12-05 | 康郦 | 船舶舷外综合监视与防御系统 |
CN107817679A (zh) * | 2016-08-24 | 2018-03-20 | 南京理工大学 | 基于红外与可见光融合跟踪的舰船水炮控制系统及方法 |
CN107899166A (zh) * | 2017-12-07 | 2018-04-13 | 南京航空航天大学 | 基于无人机和智能消防机器人的精确灭火系统及方法 |
CN108008661A (zh) * | 2017-08-31 | 2018-05-08 | 南京理工大学 | 一种船只光电水炮一体化控制系统及方法 |
CN108939369A (zh) * | 2018-05-25 | 2018-12-07 | 上海工程技术大学 | 一种用于消防水炮射流落点的确定方法 |
-
2019
- 2019-05-17 CN CN201910412469.9A patent/CN110245569B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100931319B1 (ko) * | 2008-12-03 | 2009-12-11 | 주식회사 창성에이스산업 | 선박 침입자 탐지 및 격퇴장치 및 그 방법 |
CN107817679A (zh) * | 2016-08-24 | 2018-03-20 | 南京理工大学 | 基于红外与可见光融合跟踪的舰船水炮控制系统及方法 |
CN206704484U (zh) * | 2017-03-14 | 2017-12-05 | 康郦 | 船舶舷外综合监视与防御系统 |
CN108008661A (zh) * | 2017-08-31 | 2018-05-08 | 南京理工大学 | 一种船只光电水炮一体化控制系统及方法 |
CN107899166A (zh) * | 2017-12-07 | 2018-04-13 | 南京航空航天大学 | 基于无人机和智能消防机器人的精确灭火系统及方法 |
CN108939369A (zh) * | 2018-05-25 | 2018-12-07 | 上海工程技术大学 | 一种用于消防水炮射流落点的确定方法 |
Non-Patent Citations (1)
Title |
---|
红外舰船目标的检测跟踪与射流定位研究;王冬月;《中国优秀硕士学位论文全文数据库信息科技辑》;20180315;第8-62页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110245569A (zh) | 2019-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245569B (zh) | 基于射流边缘分析和打击偏差反馈的船舶打击效果评估方法 | |
US9424649B1 (en) | Moving body position estimation device and moving body position estimation method | |
US20160110610A1 (en) | Image processor, image processing method, and computer program | |
CN111369629B (zh) | 一种基于挥拍击球动作双目视觉感知的回球轨迹预测方法 | |
CN113686314B (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
KR102265980B1 (ko) | 선박 및 항만 모니터링 장치 및 방법 | |
CN112991401B (zh) | 车辆运行轨迹追踪方法、装置、电子设备和存储介质 | |
CN110827321B (zh) | 一种基于三维信息的多相机协同的主动目标跟踪方法 | |
CN111213159A (zh) | 一种图像处理方法、装置及系统 | |
CN106022266A (zh) | 一种目标跟踪方法及装置 | |
CN113344953A (zh) | 一种基于无人机的机器视觉涌潮流速测量方法 | |
CN105869108B (zh) | 一种用于动平台移动目标侦测中的图像配准方法 | |
CN115205825B (zh) | 基于改进yolov5的行车视频序列图像检测识别交通标志方法 | |
CN110415292A (zh) | 一种圆环标识的运动姿态视觉测量方法及其应用 | |
CN113553958B (zh) | 一种高速公路绿化带检测方法和装置 | |
JP7083332B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR101524154B1 (ko) | 다수 카메라를 이용한 선박의 위치 측정 장치 | |
Wang et al. | Unmanned Ship Ranging and Error Correction Method Based on Monocular Vision | |
TWI775636B (zh) | 高爾夫揮桿解析系統、高爾夫揮桿解析方法及資訊記憶媒體 | |
TWI775637B (zh) | 高爾夫揮桿解析系統、高爾夫揮桿解析方法及資訊記憶媒體 | |
CN118134989B (zh) | 一种基于云台自动追踪的广海域远距离船舶高度检测方法 | |
JP7083333B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN118537760B (zh) | 基于无人机的水上卡口检测方法及系统 | |
CN114120701B (zh) | 一种泊车定位方法及装置 | |
JP7083334B2 (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |