CN115661689A - 赤潮区域确定方法、存储介质和电子设备 - Google Patents
赤潮区域确定方法、存储介质和电子设备 Download PDFInfo
- Publication number
- CN115661689A CN115661689A CN202211273692.8A CN202211273692A CN115661689A CN 115661689 A CN115661689 A CN 115661689A CN 202211273692 A CN202211273692 A CN 202211273692A CN 115661689 A CN115661689 A CN 115661689A
- Authority
- CN
- China
- Prior art keywords
- red tide
- image
- aerial vehicle
- unmanned aerial
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000003860 storage Methods 0.000 title claims abstract description 23
- 238000010191 image analysis Methods 0.000 claims abstract description 17
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 239000000470 constituent Substances 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 229910052739 hydrogen Inorganic materials 0.000 claims 1
- 239000001257 hydrogen Substances 0.000 claims 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013535 sea water Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于无人机影像分析的赤潮区域确定方法、存储介质和电子设备,所述方法包括以下步骤:根据无人机拍摄的图像信息提取赤潮子区域边界像素点;根据无人机拍摄图像信息对应的拍摄参数信息进行坐标转换,将无人机拍摄的图像信息转换至物方坐标系下;在物方坐标系下确定赤潮子区域边界像素点的三维坐标位置,并基于赤潮子区域边界像素点的三维坐标位置确定赤潮子区域;将多张基于无人机拍摄的图像信息确定的赤潮子区域进行合并,得到最终的赤潮区域。上述方案通过对无人机拍摄图像进行解析,能够准确地分析出当前赤潮区域并标记其对应的三维坐标位置,从而实现对赤潮区域的有效监测。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种基于无人机影像分析的赤潮区域确定方法、存储介质和电子设备。
背景技术
无人机平台(Unmanned Aerial Vehicle,UAV)具有很强的机动性和实效性。无人机影像可以提供赤潮监测的第一手资料。赤潮发生期间,通过无人机获取赤潮发生区域,并进行持续性监测,提供赤潮发生位置、面积、变化趋势等信息,可以为重大决策和可持续发展提供科学依据。
然而,无人机赤潮监测存在以下难点:1)为较大范围地获取海域水体表面信息,快速判断重点监测海域是否发生赤潮,同时避免因正射角度拍摄出现海水大面积反光,需将无人机设为特定的角度进行倾斜拍摄。2)海水面特征物较少,仅水面的养殖鱼排和水体纹路,传统特征匹配算法不能提取到足够的特征点,造成无法利用现有软件制作赤潮正射影像。因此,基于正射影像解译赤潮范围和变化趋势存在多方面因素限制,其处理效率、数据完整性和准确性低,无法充分发挥无人机在赤潮监测应急救灾中的自动化、专业化的优势。
发明内容
为此,需要提供一种基于无人机影像分析的赤潮区域确定的技术方案,用于解决现有赤潮区域边界确定困难,无法进行及时监测的技术问题。
在第一方面,一种基于无人机影像分析的赤潮区域确定方法,包括以下步骤:
S1:根据无人机拍摄的图像信息提取赤潮子区域边界像素点;
S2:根据无人机拍摄所述图像信息对应的拍摄参数信息进行坐标转换,将无人机拍摄的所述图像信息转换至物方坐标系下;
S3:在所述物方坐标系下确定所述赤潮子区域边界像素点的三维坐标位置,并基于所述赤潮子区域边界像素点的三维坐标位置确定赤潮子区域;
S4:将多张基于所述无人机拍摄的图像信息确定的所述赤潮子区域进行合并,得到最终的赤潮区域。
在某些实施例中,步骤S1包括:
S11:迭代选择若干赤潮子区域的子点;
S12:基于种子点区域增长方法提取赤潮子区域的所有覆盖范围;
S13:对步骤S12中提取的赤潮子区域的所有覆盖范围进行合并,采用边界追踪算法提取合并后的区域的外边界,得到赤潮子区域边界像素点集合。
在某些实施例中,步骤S11包括:
S111:将无人机拍摄的图像信息分别在行列方向上进行均匀划分,行列划分的分割线的交点标记为pl,l=0,1,...,n;
S112:从无人机拍摄的图像信息中获取交点pl的RGB值rpl,gpl,bpl;
S113:比较交点的rpl,gpl,bpl和非赤潮区域的r0,g0,b0的大小,如果满足公式1,则将交点pl保存到种子点集合Ls;所述公式1如下:
公式1中的Tnr,Tng,Tnb分别表示为R、G、B波段的灰度差阈值;r0,g0,b0为预设的非赤潮区域在R、G、B分量上的灰度大小;
S114:重复步骤S111至S113,直到l=n或者种子点集合Ls包含的点数大于设定的阈值Ts。
在某些实施例中,步骤S12包括:
S121:将任一种子点pl将其加入集合P;
S122:从P中选定一个种子点pk,并查找该种子点对应的8邻域像素点集合{pki,i=0,1,2...,7};种子点对应的8邻域像素点如图5所示;
S123:对于8邻域像素点pki,分别获取其对应的RGB值r,g,b,并根据公式2判断其与种子点是否兼容,如果兼容,则将该领域像素点所在位置标记为赤潮区域,并将像素点pki加入集合P;
所述公式2具体如下:
其中,公式2中的Tr,Tg,Tb为RGB波段的灰度差阈值;
S124:重复上述步:S122至和S123,直到集合P为空,得到种子点pl对应的赤潮子区域Rl。
在某些实施例中,步骤S2包括:
S21:获取无人机拍摄所述图像信息时刻对应的拍摄参数信息,所述拍摄参数信息包括天线相位中心三维坐标和传感器姿态角,所述天线相位中心三维坐标记为(XA,YA,ZA),所述传感器姿态角包括滚动角Φ、俯仰角θ和航偏角ψ;
S22:根据公式3将拍摄参数信息转换至物方坐标系下,所述公式3如下:
在某些实施例中,步骤S3包括:
S31:构建无人机图像几何解算模型;
S32:计算无人机拍摄所述图像信息时的海面高程;
S33:根据S32计算得到的海面高程以及所述无人机图像几何解算模型计算所述赤潮子区域边界像素点的三维坐标位置,并基于所述赤潮子区域边界像素点的三维坐标位置确定赤潮子区域。
在某些实施例中,步骤S32包括:
S321:从无人机拍摄的原始图像信息中筛选若干张包含典型地物的影像集合S;
S322:利用影像集合S组合具有大重叠度的n个影像对;
S323:对于每个所述影像对分别标记若干同名点,标记的同名点数量依据影像对包含的地物情况而定;
S324:对于每个影像对,根据公式9计算每个同名点对应的三维坐标(X0,Y0,Z0);所述公式9如下:
其中,Z0为海面高程值;(x,y)为像点坐标观测值,(x0,y0)为像主点坐标;f为相机主距;ai,bi,ci(i=1,2,3)为旋转矩阵R的各构成元素,根据传感器姿态角计算得到;(XS,YS,ZS)为影像位置向量;(X,Y,Z)为像点对应的物方点坐标;像主点坐标(x0,y0)和相机主距f构成相机的内方位元素;图像位置向量(XS,YS,ZS)和姿态角构成影像的外方位元素。
S325:将所有计算得到的海面高程值按照大小依次排列,取中位数为最终的海面高程值。
在某些实施例中,步骤S4包括:
对于所有赤潮区域进行合并剔除重复区域后,得到最终赤潮区域的边界像素点(xi,yi),对于每个最终的边界像素点(xi,yi),利用以下公式11计算得到海面坐标(X,Y),基于所有边界像素点的海面坐标得到赤潮区域边界的三维坐标;公式11如下:
在第二方面,本发明还提供了一种存储介质,存储介质存储有计算机程序,计算机程序被处理器执行时实现如本发明第一方面的方法步骤。
在第三方面,本发明还提供了一种电子设备,包括处理器和存储介质,存储介质为如第二方面的存储介质;
处理器用于执行存储介质中存储的计算机程序以实现如第一方面的方法步骤。
区别于现有技术,本发明提供了一种基于无人机影像分析的赤潮区域确定方法、存储介质和电子设备,所述方法包括以下步骤:根据无人机拍摄的图像信息提取赤潮子区域边界像素点;根据无人机拍摄图像信息对应的拍摄参数信息进行坐标转换,将无人机拍摄的图像信息转换至物方坐标系下;在物方坐标系下确定赤潮子区域边界像素点的三维坐标位置,并基于赤潮子区域边界像素点的三维坐标位置确定赤潮子区域;将多张基于无人机拍摄的图像信息确定的赤潮子区域进行合并,得到最终的赤潮区域。上述方案通过对无人机拍摄图像进行解析,能够准确地分析出当前赤潮区域并标记其对应的三维坐标位置,从而实现对赤潮区域的有效监测。
附图说明
图1为本发明第一种实施方式涉及的基于无人机影像分析的赤潮区域确定方法的流程图;
图2为本发明第二种实施方式涉及的基于无人机影像分析的赤潮区域确定方法的流程图;
图3为本发明第三种实施方式涉及的基于无人机影像分析的赤潮区域确定方法的流程图;
图4为本发明一实施方式涉及的基于迭代划分的赤潮子区域种子点的示意图;
图5为本发明一实施方式涉及的某一种子点的8邻域像素点的示意图;
图6为本发明一实施方式涉及的计算海面高程的示意图;
图7为本发明一实施方式涉及的电子设备的示意图;
附图标记:
10、电子设备;
101、处理器;
102、存储介质。
具体实施方式
为详细说明本申请可能的应用场景,技术原理,可实施的具体方案,能实现目的与效果等,以下结合所列举的具体实施例并配合附图详予说明。本文所记载的实施例仅用于更加清楚地说明本申请的技术方案,因此只作为示例,而不能以此来限制本申请的保护范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中各个位置出现的“实施例”一词并不一定指代相同的实施例,亦不特别限定其与其它实施例之间的独立性或关联性。原则上,在本申请中,只要不存在技术矛盾或冲突,各实施例中所提到的各项技术特征均可以以任意方式进行组合,以形成相应的可实施的技术方案。
除非另有定义,本文所使用的技术术语的含义与本申请所属技术领域的技术人员通常理解的含义相同;本文中对相关术语的使用只是为了描述具体的实施例,而不是旨在限制本申请。
在本申请的描述中,用语“和/或”是一种用于描述对象之间逻辑关系的表述,表示可以存在三种关系,例如A和/或B,表示:存在A,存在B,以及同时存在A和B这三种情况。另外,本文中字符“/”一般表示前后关联对象是一种“或”的逻辑关系。
在本申请中,诸如“第一”和“第二”之类的用语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何实际的数量、主次或顺序等关系。
在没有更多限制的情况下,在本申请中,语句中所使用的“包括”、“包含”、“具有”或者其他类似的表述,意在涵盖非排他性的包含,这些表述并不排除在包括要素的过程、方法或者产品中还可以存在另外的要素,从而使得包括一系列要素的过程、方法或者产品中不仅可以包括那些限定的要素,而且还可以包括没有明确列出的其他要素,或者还包括为这种过程、方法或者产品所固有的要素。
与《审查指南》中的理解相同,在本申请中,“大于”、“小于”、“超过”等表述理解为不包括本数;“以上”、“以下”、“以内”等表述理解为包括本数。此外,在本申请实施例的描述中“多个”的含义是两个以上(包括两个),与之类似的与“多”相关的表述亦做此类理解,例如“多组”、“多次”等,除非另有明确具体的限定。
如图1所示,在第一方面,本发明提供了一种基于无人机影像分析的赤潮区域确定方法,包括以下步骤:
S1:根据无人机拍摄的图像信息提取赤潮子区域边界像素点;
S2:根据无人机拍摄所述图像信息对应的拍摄参数信息进行坐标转换,将无人机拍摄的所述图像信息转换至物方坐标系下;
S3:在所述物方坐标系下确定所述赤潮子区域边界像素点的三维坐标位置,并基于所述赤潮子区域边界像素点的三维坐标位置确定赤潮子区域;
S4:将多张基于所述无人机拍摄的图像信息确定的所述赤潮子区域进行合并,得到最终的赤潮区域。
在步骤S1中,图像信息可以从无人机拍摄的影像信息中提取。由于多旋翼无人机的飞行高度十分有限,单张影像信息仅仅能够覆盖赤潮发生区域的很小一部分。如果采用人工标绘的方式,大量无人机影像处理将带来很高的代价。针对该问题,如图2所示,步骤S1包括:
S11:迭代选择若干赤潮子区域的子点;
S12:基于种子点区域增长方法提取赤潮子区域的所有覆盖范围;
S13:对步骤S12中提取的赤潮子区域的所有覆盖范围进行合并,采用边界追踪算法提取合并后的区域的外边界,得到赤潮子区域边界像素点集合。
由于无人机影像包含的赤潮区域颜色存在不一致的特点,仅仅利用单个种子点很难增长出所有赤潮区域。对于单张无人机影像Ii,本发明首先迭代选择若干赤潮区域的种子点。假设非赤潮区域(海水)的RGB(红绿蓝三色)颜色设定为r0,g0,b0。如图4所示,本发明涉及的步骤S11提出的赤潮区域种子点选择算法为:
S111:将无人机拍摄的图像信息分别在行列方向上进行均匀划分,行列划分的分割线的交点标记为pl,l=0,1,...,n;
S112:从无人机拍摄的图像信息中获取交点pl的RGB值rpl,gpl,bpl;
S113:比较交点的rpl,gpl,bpl和非赤潮区域的r0,g0,b0的大小,如果满足公式1,则将交点pl保存到种子点集合Ls;所述公式1如下:
公式1中的Tnr,Tng,Tnb分别表示为R、G、B波段的灰度差阈值;r0,g0,b0为预设的非赤潮区域在R、G、B分量上的灰度大小;
S114:重复步骤S111至S113,直到l=n或者种子点集合Ls包含的点数大于设定的阈值Ts。
步骤S111-S114提取的赤潮区域种子点集合Ls={pl,l=0,1,...,n}仅仅包含影像Ii中赤潮区域的部分点位,没有覆盖整个赤潮区域。本发明进一步利用种子点区域增长方法提取所有赤潮的覆盖范围。具体的,步骤S12包括:
S121:将任一种子点pl将其加入集合P;
S122:从P中选定一个种子点pk,并查找该种子点对应的8邻域像素点集合{pki,i=0,1,2...,7};
S123:对于8邻域像素点pki,分别获取其对应的RGB值r,g,b,并根据公式2判断其与种子点是否兼容,如果兼容,则将该领域像素点所在位置标记为赤潮区域,并将像素点pki加入集合P;
所述公式2具体如下:
其中,公式2中的Tr,Tg,Tb为RGB波段的灰度差阈值;
S124:重复上述步:S122至和S123,直到集合P为空,得到种子点pl对应的赤潮子区域Rl。
在本实施方式中,通过步骤S121-S124提取的若干种子点赤潮子区域{Rl,l=0,1,...,k}仅仅覆盖部分赤潮区域,无法完整表达影像中包含的赤潮区域。为此,本发明进一步对种子点提取的若干赤潮区域Rl进行区域合并:
步骤S125:对于任意两个区域Ri和Rj,如果存在重叠区域,则将区域Ri和Rj进行合并:
步骤S126:重述上述步骤S125,直到不存在满足条件的区域;
步骤S127:从剩余的所有赤潮区域,选择面积最大的区域作为最终的赤潮合并区域R。
对于赤潮合并区域R,采用区域边界跟踪算法提取区域R的外边界,得到m个边界点的像素坐标集合{(xi,yi),i=0,1,2,...,m}:由于像素坐标集合包含的像素点数量较多,影响后续几何计算效率。本发明进一步利用道格拉斯-普克算法对初始边界点进行简化,得到最终简化的边界点像素集合{(xi,yi),i=0,1,2,...,n}。
在本实施方式中,步骤S2包括:
S21:获取无人机拍摄所述图像信息时刻对应的拍摄参数信息,所述拍摄参数信息包括天线相位中心三维坐标和传感器姿态角,所述天线相位中心三维坐标记为(XA,YA,ZA),所述传感器姿态角包括滚动角Φ、俯仰角θ和航偏角ψ;
S22:根据公式3将拍摄参数信息转换至物方坐标系下,所述公式3如下:
赤潮监测无人机影像包含大面积的海域信息,无法提供足够的匹配点,导致无法使用传统摄影测量正射影像处理方案。本发明充分利用无人机平台提供的拍照时刻相机的位置和姿态信息,直接进行赤潮边界三维坐标解算。
无人机影像的EXIF信息包含了数据采集设备、无人机平台速度、GPS定位等信息。为了实现影像目标地理定位的批量解算,需要编程读取影像的EXIF信息。本发明利用FreeImage软件库,开发无人机影像EXIF信息解析软件,获取影像拍照时刻的POS系统的位置和姿态数据。
在航空遥感中,将POS系统获取的机载GNSS天线相位中心坐标(XA,YA,ZA)和IMU获取的滚动角Φ、俯仰角θ和航偏角ψ等数据联合处理,可以得到影像拍照时刻的6个外方位元素。通过对成像过程的几何反转,可以实现航空遥感直接对地目标的定位。POS系统获取的传感器姿态角(Φ,θ,ψ)用于描述IMU本地到导航坐标系的变换参数,并不等同于直接定位所需要的影像外方位角元素因此,赤潮边界几何解算之前,坐标转换是不可或缺的步骤。
在地心地固坐标系统的辅助下,原始导航坐标系统下的姿态角度将通过一系列的旋转矩阵转换到物方坐标系统,如公式3所示。
进一步地,相机内定向参数包括影像的焦距f和像主点坐标(x0,y0)。本发明首先从影像的EXIF信息进行读取,如果得到所需要的数据,则直接获取;如果没有得到所需数据,则可以根据相机检校原理,在实验室进行处理得到。
如图3所示,在某些实施例中,步骤S3包括:
S31:构建无人机图像几何解算模型;
S32:计算无人机拍摄所述图像信息时的海面高程;
S33:根据S32计算得到的海面高程以及所述无人机图像几何解算模型计算所述赤潮子区域边界像素点的三维坐标位置,并基于所述赤潮子区域边界像素点的三维坐标位置确定赤潮子区域。
在步骤S31中,无人机几何定位系统由POS系统(定位和定姿)和光学传感器组成。其中,POS系统用于获取曝光时刻的影像外方位元素,包括影像位置(XS,YS,ZS)和姿态角无人机影像的成像模型如公式9所示,所述公式9如下:
其中,Z0为海面高程值;(x,y)为像点坐标观测值,(x0,y0)为像主点坐标;f为相机主距;ai,bi,ci(i=1,2,3)为旋转矩阵R的各构成元素,根据传感器姿态角计算得到;(XS,YS,ZS)为影像位置向量;(X,Y,Z)为像点对应的物方点坐标;像主点坐标(x0,y0)和相机主距f构成相机的内方位元素;图像位置向量(XS,YS,ZS)和姿态角构成影像的外方位元素。
在某些实施例中,步骤S32包括:
S321:从无人机拍摄的原始图像信息中筛选若干张包含典型地物的影像集合S;
S322:利用影像集合S组合具有大重叠度的n个影像对;
S323:对于每个所述影像对分别标记若干同名点,标记的同名点数量依据影像对包含的地物情况而定;
S324:对于每个影像对,根据公式9计算每个同名点对应的三维坐标(X0,Y0,Z0);
S325:将所有计算得到的海面高程值按照大小依次排列,取中位数为最终的海面高程值。
根据无人机影像几何解算模型可知,计算赤潮区域几何解算需要获取影像获取时候的海面高程Z0。然而,赤潮区域无人机影像的纹理缺乏,无法直接进行自动影像匹配获取同名点。本发明提出一种交互式的海面高程计算方法,因而步骤S4包括:
对于所有赤潮区域进行合并剔除重复区域后,得到最终赤潮区域的边界像素点(xi,yi),对于每个最终的边界像素点(xi,yi),利用以下公式11计算得到海面坐标(X,Y),基于所有边界像素点的海面坐标得到赤潮区域边界的三维坐标;公式11如下:
在已知海面高程Z0的前提下,可直接通过赤潮区域边界点投影光线与高程面相交计算目标的位置。如图6所示,利用影像c1和c2的位置和姿态信息,结合标记同名点o1和o2,能够解算出对应的地面点XYZ,得到海面高程Z。
在计算的海面高程时,结合获取的无人机的图像信对应的影像位置和姿态信息,可以根据公式11计算赤潮边界点的海面三维坐标。对于单张影像,步骤1得到了赤潮子区域边界点像素集合{(xi,yi),i=0,1,2,...,n}。赤潮子区域边界点的计算方法如下:对于每个像素点(xi,yi),利用公式11计算得到海面坐标(X,Y),所有像素点对应的海面坐标组成该影像的赤潮边界区域的三维坐标。
根据上述方式获取单张影像的赤潮区域三维坐标后,所有像素点对应的海面坐标按照逆时针方向连接,组成该影像对应的赤潮区域多边形。所有影像的赤潮区域多边形通过合并,可以得到整个赤潮区域的多边形,用于面积计算、变化趋势监测等任务。
在第二方面,本发明还提供了一种存储介质,存储介质存储有计算机程序,计算机程序被处理器执行时实现如本发明第一方面的方法步骤。
如图7所示,在第三方面,本发明还提供了一种电子设备10,包括处理器101和存储介质102,该存储介质102为如第二方面的存储介质;处理器101用于执行存储介质102中存储的计算机程序以实现如第一方面的方法步骤。
在本实施例中,电子设备为计算机设备,包括但不限于:口扫仪、个人计算机、服务器、通用计算机、专用计算机、网络设备、嵌入式设备、可编程设备、智能移动终端、智能家居设备、穿戴式智能设备、车载智能设备等。存储介质包括但不限于:RAM、ROM、磁碟、磁带、光盘、闪存、U盘、移动硬盘、存储卡、记忆棒、网络服务器存储、网络云存储等。处理器包括但不限于CPU(中央处理器)、GPU(图像处理器)、MCU(微处理器)等。
本领域内的技术人员应明白,上述各实施例可提供为方法、装置、或计算机程序产品。这些实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。上述各实施例涉及的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机设备可读取的存储介质中,用于执行上述各实施例方法的全部或部分步骤。
上述各实施例是参照根据实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到计算机设备的处理器以产生一个机器,使得通过计算机设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机设备以特定方式工作的计算机设备可读存储器中,使得存储在该计算机设备可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机设备上,使得在计算机设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已经对上述各实施例进行了描述,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改,所以以上仅为本发明的实施例,并非因此限制本发明的专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围之内。
Claims (10)
1.一种基于无人机影像分析的赤潮区域确定方法,其特征在于,包括以下步骤:
S1:根据无人机拍摄的图像信息提取赤潮子区域边界像素点;
S2:根据无人机拍摄所述图像信息对应的拍摄参数信息进行坐标转换,将无人机拍摄的所述图像信息转换至物方坐标系下;
S3:在所述物方坐标系下确定所述赤潮子区域边界像素点的三维坐标位置,并基于所述赤潮子区域边界像素点的三维坐标位置确定赤潮子区域;
S4:将多张基于所述无人机拍摄的图像信息确定的所述赤潮子区域进行合并,得到最终的赤潮区域。
2.如权利要求1所述的基于无人机影像分析的赤潮区域确定方法,其特征在于,步骤S1包括:
S11:迭代选择若干赤潮子区域的子点;
S12:基于种子点区域增长方法提取赤潮子区域的所有覆盖范围;
S13:对步骤S12中提取的赤潮子区域的所有覆盖范围进行合并,采用边界追踪算法提取合并后的区域的外边界,得到赤潮子区域边界像素点集合。
3.如权利要求2所述的基于无人机影像分析的赤潮区域确定方法,其特征在于,步骤S11包括:
S111:将无人机拍摄的图像信息分别在行列方向上进行均匀划分,行列划分的分割线的交点标记为pl,l=0,1,...,n;
S112:从无人机拍摄的图像信息中获取交点pl的RGB值rpl,gpl,bpl;
S113:比较交点的rpl,gpl,bpl和非赤潮区域的r0,g0,b0的大小,如果满足公式1,则将交点pl保存到种子点集合Ls;所述公式1如下:
公式1中的Tnr,Tng,Tnb分别表示为R、G、B波段的灰度差阈值;r0,g0,b0为预设的非赤潮区域在R、G、B分量上的灰度大小;
S114:重复步骤S111至S113,直到l=n或者种子点集合Ls包含的点数大于设定的阈值Ts。
4.如权利要求2所述的基于无人机影像分析的赤潮区域确定方法,其特征在于,步骤S12包括:
S121:将任一种子点pl将其加入集合P;
S122:从P中选定一个种子点pk,并查找该种子点对应的8邻域像素点集合{pki,i=0,1,2...,7};
S123:对于8邻域像素点pki,分别获取其对应的RGB值r,g,b,并根据公式2判断其与种子点是否兼容,如果兼容,则将该领域像素点所在位置标记为赤潮区域,并将像素点pki加入集合P;
所述公式2具体如下:
其中,公式2中的Tr,Tg,Tb为RGB波段的灰度差阈值;
S124:重复上述步:S122至和S123,直到集合P为空,得到种子点pl对应的赤潮子区域Rl。
5.如权利要求1所述的基于无人机影像分析的赤潮区域确定方法,其特征在于,步骤S2包括:
S21:获取无人机拍摄所述图像信息时刻对应的拍摄参数信息,所述拍摄参数信息包括天线相位中心三维坐标和传感器姿态角,所述天线相位中心三维坐标记为(XA,YA,ZA),所述传感器姿态角包括滚动角Φ、俯仰角θ和航偏角ψ;
S22:根据公式3将拍摄参数信息转换至物方坐标系下,所述公式3如下:
6.如权利要求1所述的基于无人机影像分析的赤潮区域确定方法,其特征在于,步骤S3包括:
S31:构建无人机图像几何解算模型;
S32:计算无人机拍摄所述图像信息时的海面高程;
S33:根据S32计算得到的海面高程以及所述无人机图像几何解算模型计算所述赤潮子区域边界像素点的三维坐标位置,并基于所述赤潮子区域边界像素点的三维坐标位置确定赤潮子区域。
7.如权利要求6所述的基于无人机影像分析的赤潮区域确定方法,其特征在于,步骤S32包括:
S321:从无人机拍摄的原始图像信息中筛选若干张包含典型地物的影像集合S;
S322:利用影像集合S组合具有大重叠度的n个影像对;
S323:对于每个所述影像对分别标记若干同名点,标记的同名点数量依据影像对包含的地物情况而定;
S324:对于每个影像对,根据公式9计算每个同名点对应的三维坐标(X0,Y0,Z0);所述公式9如下:
其中,Z0为海面高程值;(x,y)为像点坐标观测值,(x0,y0)为像主点坐标;f为相机主距;ai,bi,ci(i=1,2,3)为旋转矩阵R的各构成元素,根据传感器姿态角计算得到;(XS,YS,ZS)为影像位置向量;(X,Y,Z)为像点对应的物方点坐标;像主点坐标(x0,y0)和相机主距f构成相机的内方位元素;图像位置向量(XS,YS,ZS)和姿态角构成影像的外方位元素;
S325:将所有计算得到的海面高程值按照大小依次排列,取中位数为最终的海面高程值。
9.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述的方法步骤。
10.一种电子设备,其特征在于,包括处理器和存储介质,所述存储介质为如权利要求9所述的存储介质;
所述处理器用于执行所述存储介质中存储的计算机程序以实现如权利要求1至8任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211273692.8A CN115661689A (zh) | 2022-10-18 | 2022-10-18 | 赤潮区域确定方法、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211273692.8A CN115661689A (zh) | 2022-10-18 | 2022-10-18 | 赤潮区域确定方法、存储介质和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115661689A true CN115661689A (zh) | 2023-01-31 |
Family
ID=84988914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211273692.8A Pending CN115661689A (zh) | 2022-10-18 | 2022-10-18 | 赤潮区域确定方法、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115661689A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116543309A (zh) * | 2023-06-28 | 2023-08-04 | 华南农业大学 | 一种作物异常信息获取方法、系统、电子设备及介质 |
-
2022
- 2022-10-18 CN CN202211273692.8A patent/CN115661689A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116543309A (zh) * | 2023-06-28 | 2023-08-04 | 华南农业大学 | 一种作物异常信息获取方法、系统、电子设备及介质 |
CN116543309B (zh) * | 2023-06-28 | 2023-10-27 | 华南农业大学 | 一种作物异常信息获取方法、系统、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106373088B (zh) | 大倾斜低重叠率航空图像的快速拼接方法 | |
CN106204443A (zh) | 一种基于多目复用的全景无人机系统 | |
CN114936971A (zh) | 一种面向水域的无人机遥感多光谱图像拼接方法及系统 | |
US10565789B2 (en) | Method and system for geometric referencing of multi-spectral data | |
CN108171715B (zh) | 一种图像分割方法及装置 | |
CN110246082B (zh) | 一种遥感全景图像拼接方法 | |
Domenica et al. | Using optical Satellite and aerial imagery for automatic coastline mapping | |
CN111709876B (zh) | 一种图像拼接的方法及装置、设备、存储介质 | |
CN105466399A (zh) | 快速半全局密集匹配方法和装置 | |
CN115661689A (zh) | 赤潮区域确定方法、存储介质和电子设备 | |
CN114563378A (zh) | 湖库蓝藻水华空间分布定量描述方法、装置、介质和设备 | |
CN107862652B (zh) | 一种鸟瞰图生成方法及装置 | |
Wang et al. | Unmanned aerial vehicle and structure‐from‐motion photogrammetry for three‐dimensional documentation and digital rubbing of the Zuo River Valley rock paintings | |
CN104361563A (zh) | 基于gps的高光谱遥感图像几何精校正方法 | |
CN110940318A (zh) | 航空遥感实时成像方法、电子设备以及存储介质 | |
CN111652931A (zh) | 一种地理定位方法、装置、设备及计算机可读存储介质 | |
CN116402693B (zh) | 一种基于遥感技术的市政工程图像处理方法及装置 | |
Spicer et al. | Producing usable simulation terrain data from UAS-collected imagery | |
CN115082812B (zh) | 一种农业景观非农生境绿地斑块提取方法及其相关设备 | |
Wang et al. | Automated mosaicking of UAV images based on SFM method | |
Bellia et al. | A preliminary assessment of the efficiency of using drones in land cover mapping | |
Panigrahi et al. | Image pan-sharpening and sub-pixel classification enabled building detection in strategically challenged forest neighborhood environment | |
CN111899222A (zh) | 一种利用风向全自动初步定位热带气旋中心的方法及系统 | |
Ye et al. | Aerial Image Stitching Method Based on Feature Transfer and Tile Image | |
Oldoni et al. | Geometric accuracy assessment and a framework for automatic sub-pixel registration of WFI images from CBERS-4, CBERS-4A, and Amazonia-1 satellites over Brazil |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |