CN117975254B - 一种基于双目图像的着生藻类监测方法及系统 - Google Patents
一种基于双目图像的着生藻类监测方法及系统 Download PDFInfo
- Publication number
- CN117975254B CN117975254B CN202410379594.5A CN202410379594A CN117975254B CN 117975254 B CN117975254 B CN 117975254B CN 202410379594 A CN202410379594 A CN 202410379594A CN 117975254 B CN117975254 B CN 117975254B
- Authority
- CN
- China
- Prior art keywords
- image
- algae
- binocular
- convex defect
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241000195493 Cryptophyta Species 0.000 title claims abstract description 207
- 238000012544 monitoring process Methods 0.000 title claims abstract description 82
- 238000003384 imaging method Methods 0.000 title claims abstract description 8
- 230000012010 growth Effects 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000011218 segmentation Effects 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 10
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 230000007547 defect Effects 0.000 claims description 147
- 238000001514 detection method Methods 0.000 claims description 31
- 239000002028 Biomass Substances 0.000 claims description 21
- 238000012795 verification Methods 0.000 claims description 21
- 238000001914 filtration Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 14
- 238000003708 edge detection Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 230000005791 algae growth Effects 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 230000010339 dilation Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims description 2
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 claims 2
- 238000003702 image correction Methods 0.000 claims 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 18
- 238000011156 evaluation Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 8
- 101100243745 Schizosaccharomyces pombe (strain 972 / ATCC 24843) ptb1 gene Proteins 0.000 description 5
- 238000012216 screening Methods 0.000 description 3
- 239000013049 sediment Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000011065 in-situ storage Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 208000034699 Vitreous floaters Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/05—Underwater scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于双目图像的着生藻类监测方法及系统,属于水生态环境监测领域,方法包括:S1、采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集;S2、采用数据集训练基于深度学习的着生藻类语义分割模型;S3、采集双目序列图像数据,进行矫正处理并重建双目图像数据,得到重建后的双目图像;S4、使用训练好的着生藻类语义分割模型在重建后的双目图像上进行着生藻类覆盖度检测和着生藻类生长高度检测;S5、根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标。本申请对着生藻类的实时监测,根据着生藻类的覆盖度和生长高度计算出监测指标,为着生藻类生态系统的综合评估提供了数据支持。
Description
技术领域
本发明涉及水生态环境监测技术领域,尤其涉及一种基于双目图像的着生藻类监测方法及系统。
背景技术
着生藻类是生长在水底、沿岸、水草或其他水中突出物、漂浮物上的藻类,是水生态系统中重要的生物组成部分和初级生产者之一,其暴发增殖死亡后上浮会对水体的水质和其他生物造成巨大影响。需要设计一种有效的方法来对水体内着生藻类的生长情况进行原位监测。
在现有技术中,由于水生态环境较为复杂,难以实时监测,无法及时发现着生藻类的异常增长。现有专利CN110220845B公开了一种着生藻生长带的原位监测方法及装置,其采用水上相机分析着生藻类的覆盖度指标和生长高度指标,但是由于水上相机受光照、天气、水浪等影响较大,计算出的着生藻类覆盖度指标变化幅度较大,且水下相机拍摄的画面中存在悬浮物、鱼类、泥沙等现象,会影响计算精度。同时,采用直接识别特定标定物体孔洞的方式计算着生藻类的生长高度,其指标与实际情况也存在较大的偏差。
因此,寻找一种既能够对水下着生藻类的生长情况及时监测,又能够准确计算出着生藻类监测指标的方法,是本领域技术人员亟待解决的技术问题。
发明内容
有鉴于此,本发明提出了一种基于双目图像的着生藻类监测方法及系统,首先,采集和标注水下双目相机拍摄的着生藻类图像数据,并训练着生藻类语义分割模型,然后对双目序列图像数据进行矫正和重建,最后基于重建后的双目图像计算着生藻类的覆盖度、生长高度、生物量等监测指标,并对其生长高度、覆盖率和生物量等指标进行综合评估,及时发现着生藻类的生长变化趋势。
本发明的技术方案是这样实现的:
第一方面,本发明提供了一种基于双目图像的着生藻类监测方法,包括以下步骤:
S1、采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集;
S2、采用数据集训练基于深度学习的着生藻类语义分割模型;
S3、采集双目序列图像数据,对双目序列图像数据进行矫正处理并重建双目图像数据,得到重建后的双目图像Istr;
S4、使用训练好的着生藻类语义分割模型在重建后的双目图像Istr上进行着生藻类覆盖度检测和着生藻类生长高度检测;
S5、根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标。
在以上技术方案的基础上,优选的,所述着生藻类覆盖度检测具体包括:
将重建后的双目图像Istr切分为左视图Istr l和右视图Istr r;
将左视图Istr l输入至训练好的着生藻类语义分割模型,检测出左视图Istr l的着生藻类分布区域,得到单通道的BMask图像;
在左视图Istr l上采用多边形划线方式选定着生藻类的监控区域,并统计监控区域内着生藻类的像素面积;
根据监控区域的像素面积和监控区域内检测的着生藻类的像素面积,得到着生藻类的覆盖度指标。
在以上技术方案的基础上,优选的,所述着生藻类生长高度检测具体包括:
根据左视图Istr l和右视图Istr r进行双目图像匹配操作,计算视差图像Id;
对视差图像Id进行加权最小二乘滤波,得到稠密的视差图像Id W;
基于稠密的视差图像Id W结合水下双目相机中左相机的标定参数,计算稠密三维点云数据ID l;
对稠密三维点云数据ID l中点云数据进行滤波处理,设置Z方向阈值,并删除稠密三维点云数据ID l中Z坐标小于0和大于Z方向阈值的点云数据;
以单通道的BMask图像为掩膜统计稠密三维点云数据ID l中Z坐标平均值,所述Z坐标平均值为相机视角着生藻类的高度;
计算左视图Istr l中标定杆的位置,根据左视图Istr l中标定杆的位置和左相机视角着生藻类的高度得到着生藻类的相对高度;
根据相机视角着生藻类的高度和着生藻类的相对高度得到着生藻类的生长高度指标。
在以上技术方案的基础上,优选的,所述计算左视图Istr l中标定杆的位置,根据左视图Istr l中标定杆的位置和左相机视角着生藻类的高度得到着生藻类的相对高度,具体包括:
在左视图Istr l中框选标定杆的检测区域Re,从左视图Istr l中截取检测区域Re的图像,对图像/>进行预处理和边缘检测,得到边缘图像Iedge;
对边缘图像Iedge进行特征点检测和特征点校验得到校验后的凸缺陷点;
根据校验后的凸缺陷点确定图像中标定杆的十字中心点,并根据标定杆的十字中心点得到着生藻类的相对高度。
在以上技术方案的基础上,优选的,所述对图像进行预处理和边缘检测,具体包括:
将图像按照预设尺寸进行缩放处理并转换成灰度图像,得到图像Igray;
对图像Igray进行中值滤波去噪,并采用CLAHE算法进行对比度拉伸操作,得到拉伸后的图像;
使用高斯模糊算法对拉伸后的图像进行处理,得到图像Ire E;
在图像Ire E上计算OTSU阈值,并根据OTSU阈值以及预设的第一阈值系数和第二阈值系数进行计算,得到高低阈值;
使用Canny边缘检测方法从图像Ire E中提取出标定杆的边缘特征,并进行形态学膨胀操作,得到边缘图像Iedge。
在以上技术方案的基础上,优选的,所述对边缘图像Iedge进行特征点检测和特征点校验得到校验后的凸缺陷点,具体包括:
计算边缘图像Iedge的所有外轮廓{Oi},并找到最大外轮廓O1;
对最大外轮廓O1进行凸包检测,得到凸包的集合{Ai};
根据凸包的集合{Ai}对最大外轮廓O1进行凸缺陷检测,得到凸缺陷点集合{Bi|Bi=IDi S,IDi E,IDi F,Di},其中IDi S表示第i个凸缺陷点在最大外轮廓O1中的起始点索引,IDi E表示第i个凸缺陷点在最大外轮廓O1中的结束点索引,IDi F表示第i个凸缺陷点在最大外轮廓O1中距离凸包最远点索引,Di表示第i个凸缺陷点在最大外轮廓O1中距离凸包最远点与最大外轮廓O1的像素距离;
分别计算凸包的集合{Ai}中任意两个凸包之间的像素距离d1,根据像素距离d1进行凸包间距检验,当像素距离d1小于预设第一阈值时,计算两个凸包之间的中心点,将中心点代替两个凸包作为新的凸包并形成集合{Fi};其中集合{Fi}中还包括像素距离d1大于第一预设阈值的凸包;
设置第二阈值,随机选取凸缺陷点集合{Bi}中一个凸缺陷点作为起始点,从起始点开始遍历,直至凸缺陷点集合{Bi}中的全部凸缺陷点均被遍历,将凸缺陷点集合{Bi}中凸缺陷点到最大外轮廓O1的像素距离小于第二阈值的凸缺陷点进行删除,得到集合{Ci};
依次计算集合{Ci}中相邻两个凸缺陷点之间的像素距离d2,当像素距离d2小于预设第一阈值时,计算两个凸缺陷点之间的中心点,将中心点代替两个凸缺陷点作为新的凸缺陷点并形成形成集合{Pi};其中集合{Pi}中还包括像素距离d2大于第一预设阈值的凸缺陷点;
根据集合{Fi}和集合{Pi}进行特征点校验得到校验后的凸缺陷点。
在以上技术方案的基础上,优选的,所述根据集合{Fi}和集合{Pi}进行特征点校验得到校验后的凸缺陷点,具体包括:
步骤a、构建集合{Pi}中任意凸缺陷点对应的结构体,所述结构体包括点ID和点校验命中次数count;
步骤b、设置第三阈值,依次计算集合{Pi}中任意两个凸缺陷点之间的间距d3,如果间距d3小于第三阈值,则将点校验命中次数count加1;
步骤c、将点校验命中次数count按照从小到大的顺序进行排列,形成label序列;
步骤d、若label[0]的count数值与集合{Pi}的个数不同,则删除label[0]中ID对应的凸缺陷点;
步骤e、重复步骤b-d,直至步骤d中label[0]中count数值与集合{Pi}的个数相同;
步骤f、计算集合{Fi}中凸包与对应集合{Pi}中凸缺陷点之间的像素距离d4,若像素距离d4小于第二阈值,则删除集合{Pi}中的凸缺陷点;
步骤g、按照顺时针方向,从集合{Pi}中第二个凸缺陷点开始,依次将当前凸缺陷点、上一个凸缺陷点和下一个凸缺陷点组成三角形,并计算当前凸缺陷点与相邻两个凸缺陷点之间的夹角θ,设置第四阈值和第五阈值,若θ小于第四阈值或大于第五阈值,则删除当前凸缺陷点;
步骤h、按照步骤g,遍历验证集合{Pi}中所有凸缺陷点,得到校验后的凸缺陷点。
在以上技术方案的基础上,优选的,所述根据校验后的凸缺陷点确定图像中标定杆的十字中心点,具体包括:
将所有校验后的凸缺陷点进行排序,形成凸缺陷点序列;
分别计算凸缺陷点序列中任意两个凸缺陷点的宽度差,并将宽度差的平均值作为十字中心点的X坐标;
分别计算两个凸缺陷点在垂直方向上的距离差,将垂直方向上的距离差作为十字中心点的Y坐标。
更进一步优选的,所述着生藻类监测指标包括着生藻类覆盖度变化率指标、着生藻类生长高度变化率指标和着生藻类生物量变化率指标,步骤S5具体包括:根据着生藻类覆盖度指标和着生藻类生长高度指标计算着生藻类的体积以及着生藻类的生物量指标;
通过当前时刻的着生藻类覆盖度指标和上一时刻着生藻类覆盖度指标确定着生藻类覆盖度变化率指标;
通过当前时刻的着生藻类生长高度和上一时刻着生藻类生长高度确定着生藻类生长高度变化率指标;
根据当前时刻的着生藻类生物量指标和上一时刻着生藻类生物量指标确定着生藻类生物量变化率指标。
第二方面,本发明提供了一种基于双目图像的着生藻类监测系统,采用如上述所述的着生藻类监测方法,包括:
语义分割模块,其配置为采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集,采用数据集训练基于深度学习的着生藻类语义分割模型;
重建模块,其配置为采集双目序列图像数据,并对双目序列图像数据进行矫正处理并重建双目图像数据,得到重建后的双目图像;
着生藻类覆盖度检测模块,其配置为使用训练好的着生藻类语义分割模型对重建后的双目图像进行着生藻类覆盖度检测;
着生藻类生长高度检测模块,其配置为利用双目图像匹配技术获得三维数据,在着生藻类覆盖区域进行着生藻类生长高度检测;
着生藻类监测模块,其配置为根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标。
本发明的着生藻类监测方法相对于现有技术具有以下有益效果:
(1)着生藻类监测指标全部通过水下双目相机来完成,只需保证水下双目相机完全在水平面以下即可,不受天气和水浪的影响;
(2)为了解决水下双目相机拍摄的画面中存在悬浮物、鱼类、泥沙等问题,通过RPCA算法,从多帧双目图像数据中计算了它的低秩矩阵,并重建了不包含悬浮物、鱼类和泥沙等干扰的单张双目图像数据,为后面分析着生藻类覆盖度指标和生长高度指标提供了稳定的图像来源,极大地提高了着生藻类监测指标的稳定性;
(3)相比水上相机通过RGB颜色分量变化方式来计算着生藻类的覆盖度指标,基于水下双目相机的着生藻类语义分割模型能够获得更加精确和稳定的着生藻类覆盖度指标;
(4)通过水下双目图像能够较精确地计算出水下双目相机视角下着生藻类覆盖区域内的平均生长高度,并结合标定杆计算出着生藻类的相对生长高度,根据着生藻类覆盖区域内的平均生长高度和着生藻类的相对生长高度获得更加精确和稳定的着生藻类生长高度指标,提高了着生藻类监测指标的稳定性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的着生藻类监测方法的流程图;
图2为本发明的着生藻类监测方法的着生藻类语义分割模型训练的流程框图;
图3为本发明的着生藻类监测方法的水下双目相机的双目图像处理方法流程框图;
图4为本发明的着生藻类监测方法的双目序列图像的重建流程框图;
图5为本发明的着生藻类监测方法的预处理流程框框图;
图6为本发明的着生藻类监测方法的低秩矩阵计算流程框图;
图7为本发明的着生藻类监测方法的根据低秩矩阵重建水下双目图像流程框图;
图8为本发明的着生藻类监测方法的着生藻类生长高度检测流程框图;
图9为本发明的着生藻类监测方法的着生藻类相对高度流程框图;
图10为本发明的着生藻类监测方法的预处理和边缘检测流程框图;
图11为本发明的着生藻类监测方法的特征点校验流程框图;
图12为本发明的着生藻类监测方法的标定杆十字中心点示意图;
图13为本发明的着生藻类监测方法的标定杆十字中心点计算流程框图;
图14为本发明的着生藻类监测方法的水下标定杆示意图;
图15为本发明的着生藻类监测方法的着生藻类监测指标计算流程框图。
具体实施方式
下面将结合本发明实施方式,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
如图1所示,本发明公开了一种基于双目图像的着生藻类监测方法,包括以下步骤:
S1、采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集。
通过采用水下双目相机对着生藻类进行拍摄,使着生藻类监测不受天气因素的干扰,如下雨、有雾天气等原因造成的拍摄不清以及水浪造成的影响等。
S2、采用数据集训练基于深度学习的着生藻类语义分割模型。
如图2所示,可以理解的,数据集包括训练集和测试集,使用训练集基于深度学习网络训练着生藻类语义分割模型,并使用测试集对着生藻类语义分割模型进行测试,当训练的着生藻类语义分割模型效果满足要求时,则得到训练好的着生藻类语义分割模型,通过训练集和测试集提高着生藻类语义模型对着生藻类图像识别的准确性,实现水下着生藻类自动化检测,减少人工检测误差,快速获取着生藻类的监测结果。
S3、采集双目序列图像数据,对双目序列图像数据进行矫正处理并重建双目图像数据,得到重建后的双目图像Istr。
如图3和图4所示,图3为水下双目相机的双目图像处理方法流程框图,图4为双目序列图像的重建流程框图,进一步的,步骤S3包括:
S31、使用水下双目相机同时采集不同姿态的多帧标定板图像数据并进行标定,获取水下双目相机的内外参数;
S32、根据水下双目相机的内参数分别对水下双目相机采集的双目图像数据进行畸变矫正处理和极线对齐处理,并进行左右拼接形成双目序列图像;
S33、对双目序列图像进行预处理,并计算预处理后双目序列图像的低秩矩阵;
S34、通过双目序列图像的低秩矩阵重建双目图像数据,得到重建后的双目图像Istr。
可以理解的,重建后的双目图像不含悬浮物、鱼类和泥沙等干扰信息。
通过水下双目相机获取着生藻类的双目序列图像,保证水下双目相机能够实时获取着生藻类的图像,不受天气和水浪的影响,通过对水下双目相机进行标定、畸变矫正和极线对齐处理,消除相机镜头畸变和图像对齐问题,从而提高双目图像的质量和准确性,并对单张双目图像进行预处理,例如去噪、增强和配准等操作,提高图像的质量和清晰度;通过计算双目序列图像的低秩矩阵并进行图像重建,排除环境干扰因素如悬浮物、鱼类和泥沙等以生成无干扰因素的图像,以便更好地观察和分析着生藻类的分布和生长情况。
在本申请一实施例中,水下双目相机每分钟同步采集2张图像,即左右相机分别采集2张图像,持续采集30分钟,合计左相机采集60张水下着生藻类图像,右相机采集60张水下着生藻类图像,对每次同步采集的左右相机图像数据分别进行畸变矫正处理,并按照左右顺序拼接成一副完整的图像Img;
将所有同步采集的左右相机图像数据进行矫正处理并拼接后得到双目序列图像矫正后的图像序列ImgList;
对图像序列ImgList中的图像进行预处理,并计算低秩矩阵LAhat、UAhat和VAhat;
通过低秩矩阵LAhat、UAhat和VAhat重建水下双目图像,得到重建后的双目图像Istr。
如图5所示,进一步的,预处理具体包括:
对图像序列ImgList中的图像进行缩放处理,得到缩放后的双目图像;
对缩放后的双目图像进行中值滤波处理,并进行清晰度增强操作,如使用USM算法进行增强;
将清晰度增强后的双目图像进行颜色空间转换,得到预处理后的双目图像;
对图像序列ImgList中的所有图像进行以上预处理操作,得到预处理后的双目图像序列Imgstereo。
可以理解的,由于图像序列ImgList中的图像是左右拼接方式,高为height,宽为width,因此在进行缩放处理时需要分别计算高度方向和宽度方向的缩放倍率,如高方向缩放倍率为Sh=height/512,宽方向缩放倍率为Sw=width/(2*512),图像缩放倍率为S=max(Sh,Sw),若图像缩放后区域不足则使用像素(114,114,114)进行填充。
优选的,在进行颜色空间转换时可以将清晰度增强后的双目图像从RGB颜色空间转换到LUV颜色空间,以便更好的识别出图像中着生藻类的生长情况。
通过对图像序列ImgList进行缩放处理使图像的尺寸适应特定的需求,减少数据存储的同时提高图像的质量和适用性;通过中值滤波处理有效地去除图像中的椒盐噪声等噪声干扰,提高图像的清晰度和质量,并利用清晰度增强操作突出图像中的细节和边缘,使图像更加清晰。
如图6所示,在本申请一实施例中,所述计算低秩矩阵LAhat、UAhat和VAhat,具体包括:
分别构造三个单通道的图像序列,包括
将预处理后的双目图像序列Imgstereo进行通道分离,并分别存入单通道的图像序列,得到LList、UList和VList;
分别计算LList、UList和VList的低秩矩阵,得到低秩矩阵LAhat、UAhat和VAhat。
优选的,通过RPCA算法(Robust Principal Component Analysis)来计算图像序列的低秩矩阵,利用IALM(Inexact ALM非精确拉格朗日乘子法)算法对其求解,得到低秩矩阵LAhat、UAhat和VAhat。
如图7所示,在本申请的进一步实施例中,所述通过低秩矩阵LAhat、UAhat和VAhat重建水下双目图像,具体包括:
计算低秩矩阵LAhat的均值,得到单通道图像LMAhat;
计算低秩矩阵UAhat的均值,得到单通道图像UMAhat;
计算低秩矩阵VAhat的均值,得到单通道图像VMAhat;
将LMAhat、UMAhat和VMAhat这三个单通道图像合并成一个3通道的图像,得到合成图像;
将合成图像的颜色空间转换到RGB色彩空间,得到重建后的双目图像Istr。
通过计算低秩矩阵的均值得到单通道图像LMAhat、UMAhat和VMAhat,有效地降低图像中的噪声和干扰,改善图像的质量和清晰度,将LMAhat、UMAhat和VMAhat这三个单通道图像合并成一个3通道的图像,然后将其转换到RGB色彩空间,对水下双目图像进行重建,使重建后的双目图像Istr不包含悬浮物、鱼类和泥沙等干扰因素,提高重建后双目图像的视觉效果,便于及时了解水下着生藻类的生长情况。
S4、使用训练好的着生藻类语义分割模型在重建后的双目图像Istr上进行着生藻类覆盖度检测和着生藻类生长高度检测。
在本申请一实施例中,所述着生藻类覆盖度检测具体包括:
将重建后的双目图像Istr切分为左视图Istr l和右视图Istr r;
将左视图Istr l输入至训练好的着生藻类语义分割模型,检测出左视图Istr l的着生藻类分布区域,得到单通道的BMask图像;
在左视图Istr l上采用多边形划线方式选定着生藻类的监控区域,并统计监控区域内着生藻类的像素面积;
根据监控区域的像素面积和监控区域内检测的着生藻类的像素面积,得到着生藻类的覆盖度指标。
可以理解的,单通道的BMask图像中像素值为255的区域为检测的着生藻类区域,其他区域的像素值为0。
通过将左视图输入训练好的着生藻类语义分割模型自动检测出着生藻类的分布区域,并采用着生藻类语义分割模型对重建后的双目图像Istr进行检测,提高了着生藻类区域检测的准确性,利用多边形划线方式选定着生藻类的监控区域,并统计监控区域内检测的着生藻类的像素面积实现对着生藻类的实时监测,及时获取观测范围内着生藻类的覆盖度信息,通过统计监控区域内着生藻类的像素面积将着生藻类的覆盖度量化为指标,为着生藻类生长情况的评估和分析提供了量化的数据支持。
具体的,着生藻类区域的覆盖度指标=监控区域内检测的着生藻类的像素面积/监控区域的像素面积。
如图8所示,在本申请一实施例中,所述着生藻类生长高度检测具体包括:
根据左视图Istr l和右视图Istr r进行双目图像匹配操作,计算视差图像Id;
对视差图像Id进行加权最小二乘滤波,得到稠密的视差图像Id W;
基于稠密的视差图像Id W结合水下双目相机中左相机的标定参数,计算稠密三维点云数据ID l;
对稠密三维点云数据ID l中点云数据进行滤波处理,设置Z方向阈值,并删除稠密三维点云数据ID l中Z坐标小于0和大于Z方向阈值的点云数据;
以单通道的BMask图像为掩膜统计稠密三维点云数据ID l中Z坐标平均值,所述Z坐标平均值为相机视角着生藻类的高度;
计算左视图Istr l中标定杆的位置,根据左视图Istr l中标定杆的位置和左相机视角着生藻类的高度得到着生藻类的相对高度;
根据相机视角着生藻类的高度和着生藻类的相对高度得到着生藻类的生长高度指标。
通过双目图像匹配操作和计算视差图像,结合加权最小二乘滤波和稠密三维点云数据的计算,实现对着生藻类的高度进行精准的测量,从而获取准确的生长高度指标;基于稠密的视差图像和三维点云数据的计算获取着生藻类的三维信息,包括其在空间中的位置和高度,便于及时了解着生藻类的生长状态和分布情况;结合左视图中标定杆的位置和着生藻类的相对高度,准确地计算出着生藻类的实际生长高度。
优选的,采用SGBM(semi-global block matching)算法计算视差图像Id。
可以理解的,将相机视角着生藻类的高度与着生藻类的相对高度相加可以得到着生藻类生长高度指标。
如图9所示,在本申请一实施例中,所述计算左视图Istr l中标定杆的位置,根据左视图Istr l中标定杆的位置和左相机视角着生藻类的高度得到着生藻类的相对高度,具体包括:
在左视图Istr l中框选标定杆的检测区域Re,从左视图Istr l中截取检测区域Re的图像,对图像/>进行预处理和边缘检测,得到边缘图像Iedge;
对边缘图像Iedge进行特征点检测和特征点校验得到校验后的凸缺陷点;
根据校验后的凸缺陷点确定图像中标定杆的十字中心点,并根据标定杆的十字中心点得到着生藻类的相对高度。
通过重建后的双目图像Istr精确地计算出水下双目相机视角下着生藻类覆盖区域内的平均生长高度,并结合标定杆计算出着生藻类的相对生长高度,根据着生藻类覆盖区域内的平均生长高度和着生藻类的相对生长高度获得更加精确和稳定的着生藻类生长高度指标,提高了着生藻类监测指标的稳定性。
如图10所示,在本申请一实施例中,所述对图像进行预处理和边缘检测,具体包括:
将图像按照预设尺寸进行缩放处理并转换成灰度图像,得到图像Igray;
对图像Igray进行中值滤波去噪,并采用CLAHE算法进行对比度拉伸操作,得到拉伸后的图像;
使用高斯模糊算法对拉伸后的图像进行处理,得到图像Ire E;
在图像Ire E上计算OTSU阈值,并根据OTSU阈值以及预设的第一阈值系数和第二阈值系数进行计算,得到高低阈值;
使用Canny边缘检测方法从图像Ire E中提取出标定杆的边缘特征,并进行形态学膨胀操作,得到边缘图像Iedge。
通过预处理步骤中的缩放、灰度转换、中值滤波、对比度拉伸和高斯模糊等操作,有效去除图像中的噪声和干扰,改善图像的质量;采用CLAHE算法进行对比度拉伸操作,增强图像的对比度,使得图像中的细节更加清晰;根据OTSU阈值以及预设的第一阈值系数和第二阈值系数计算高低阈值,使得阈值的计算更加自适应,适用于不同类型的图像和环境;通过计算OTSU阈值和使用Canny边缘检测方法,有效地从图像Ire E中提取出标定杆的边缘特征,结合形态学膨胀操作,连接断开的边缘,增强标定杆轮廓的完整性,提高边缘检测的准确性和稳定性。
如图11所示,在本申请一实施例中,所述对边缘图像Iedge进行特征点检测和特征点校验得到校验后的凸缺陷点,具体包括:
计算边缘图像Iedge的所有外轮廓{Oi},并找到最大外轮廓O1;
对最大外轮廓O1进行凸包检测,得到凸包的集合{Ai};
根据凸包的集合{Ai}对最大外轮廓O1进行凸缺陷检测,得到凸缺陷点集合{Bi|Bi=IDi S,IDi E,IDi F,Di},其中IDi S表示第i个凸缺陷点在最大外轮廓O1中的起始点索引,IDi E表示第i个凸缺陷点在最大外轮廓O1中的结束点索引,IDi F表示第i个凸缺陷点在最大外轮廓O1中距离凸包最远点索引,Di表示第i个凸缺陷点在最大外轮廓O1中距离凸包最远点与最大外轮廓O1的像素距离;
分别计算凸包的集合{Ai}中任意两个凸包之间的像素距离d1,根据像素距离d1进行凸包间距检验,当像素距离d1小于预设第一阈值时,计算两个凸包之间的中心点,将中心点代替两个凸包作为新的凸包并形成集合{Fi};其中集合{Fi}中还包括像素距离d1大于第一预设阈值的凸包;
设置第二阈值,随机选取凸缺陷点集合{Bi}中一个凸缺陷点作为起始点,从起始点开始遍历,直至凸缺陷点集合{Bi}中的全部凸缺陷点均被遍历,将凸缺陷点集合{Bi}中凸缺陷点到最大外轮廓O1的像素距离小于第二阈值的凸缺陷点进行删除,得到集合{Ci};
依次计算集合{Ci}中相邻两个凸缺陷点之间的像素距离d2,当像素距离d2小于预设第一阈值时,计算两个凸缺陷点之间的中心点,将中心点代替两个凸缺陷点作为新的凸缺陷点并形成形成集合{Pi};其中集合{Pi}中还包括像素距离d2大于第一预设阈值的凸缺陷点;
根据集合{Fi}和集合{Pi}进行特征点校验得到校验后的凸缺陷点。
通过计算外轮廓、最大外轮廓的凸包检测和凸缺陷检测,准确地获取边缘图像中的凸缺陷点集合{Bi},设置预设第一阈值和第二阈值,对凸缺陷点集合{Bi}进行凸包间距检验和凸缺陷点进行筛选,去除一些不必要的凸缺陷点,减少凸缺陷点数据量并提高了凸缺陷点的质量,同时,通过计算凸缺陷点之间的像素距离,提高凸缺陷点的稳定性和鲁棒性,使得凸缺陷点集合{Bi}中凸缺陷点的提取更加可靠,不易受到图像噪声和变化的影响。
在本申请一实施例中,所述根据集合{Fi}和集合{Pi}进行特征点校验得到校验后的凸缺陷点,具体包括:
步骤a、构建集合{Pi}中任意凸缺陷点对应的结构体,所述结构体包括点ID和点校验命中次数count;
步骤b、设置第三阈值,依次计算集合{Pi}中任意两个凸缺陷点之间的间距d3,如果间距d3小于第三阈值,则将点校验命中次数count加1;
步骤c、将点校验命中次数count按照从小到大的顺序进行排列,形成label序列;
步骤d、若label[0]的count数值与集合{Pi}的个数不同,则删除label[0]中ID对应的凸缺陷点;
步骤e、重复步骤b-d,直至步骤d中label[0]中count数值与集合{Pi}的个数相同;
步骤f、计算集合{Fi}中凸包与对应集合{Pi}中凸缺陷点之间的像素距离d4,若像素距离d4小于第二阈值,则删除集合{Pi}中的凸缺陷点;
步骤g、按照顺时针方向,依次从集合{Pi}中第二个凸缺陷点开始,将当前凸缺陷点、上一个凸缺陷点和下一个凸缺陷点组成三角形,并计算当前凸缺陷点与相邻两个凸缺陷点之间的夹角θ,设置第四阈值和第五阈值,若θ小于第四阈值或大于第五阈值,则删除当前凸缺陷点;
步骤h、按照步骤g,遍历验证集合{Pi}中所有凸缺陷点,得到校验后的凸缺陷点。
可以理解的,label[0]是label序列的第一个元素,根据实际使用需求设置第四阈值和第五阈值,如当夹角θ大于设置的第四阈值80度,并且小于设置的第五阈值110度,那么认为当前凸缺陷点是有效的,依次对集合{Pi}中所有的凸缺陷点进行校验,删除不满足要求的凸缺陷点,其中第四阈值和第五阈值可以根据实际使用需求进行设置,本申请并不对此进行具体限制。
通过构建集合{Pi}中任意凸缺陷点对应的结构体,并按照特定的校验规则对凸缺陷点进行筛选和排列,删除了错误的凸缺陷点,并确保最终得到的凸缺陷点集合具有较高的质量和可靠性;通过设置第三阈值,对集合{Pi}中任意两个凸缺陷点之间的间距进行计算和校验,排除一些不必要的凸缺陷点,从而降低凸缺陷点的误检率,使得最终得到的凸缺陷点更加精确和可靠;通过对集合{Pi}中的凸缺陷点进行像素距离和夹角的校验,提高凸缺陷点的鲁棒性,使得最终得到的凸缺陷点对图像变化和噪声具有一定的抵抗能力;通过多次筛选和校验,可以有效地对凸缺陷点进行细致的校验和修正,从而得到更加可靠和准确的凸缺陷点。
在本申请一实施例中,所述根据校验后的凸缺陷点确定图像中标定杆的十字中心点,具体包括:
将所有校验后的凸缺陷点进行排序,形成凸缺陷点序列;
分别计算凸缺陷点序列中任意两个凸缺陷点的宽度差,并将宽度差的平均值作为十字中心点的X坐标;
分别计算两个凸缺陷点在垂直方向上的距离差,将垂直方向上的距离差作为十字中心点的Y坐标。
通过计算凸缺陷点的宽度差和垂直方向上的距离差,精确确定图像中标定杆的十字中心点的坐标;通过计算和排序凸缺陷点对图像中标定杆位置的自动化处理,减少人工干预,提高对十字中心点坐标的准确性和可靠性,确保了标定杆位置的精准度和稳定性。
具体的,如图12和13所示,图中A(A1~A8)表示凸包,B(B1~B4)表示凸缺陷点,对所有凸缺陷点进行排序,B1表示为左上角凸缺陷点;B2表示为右上角凸缺陷点;B3表示为左下角凸缺陷点;B4表示为右下角凸缺陷点。
1)如果找到4个凸缺陷点,那么直接计算B1与B4线段和B2与B3线段的交点,该交点即为标定杆十字中心点。
2)如果找到任意3个凸缺陷点,以B3、B1和B2为例进行说明标定杆十字中心点的过程:
将B2和B3组成线段,计算B1在该线段上的投影点,该点即为标定杆十字中心点。
3)如果找到2个对角线的凸缺陷点,例如:B1和B4或B2和B3,以B1和B4为例进行说明,Ptb1表示B1的点坐标,Ptb4表示B4的点坐标:
计算X方向上B1与B4的距离w=Ptb4.x-Ptb1.x;
计算Y方向上B1与B4的距离h=Ptb4.y-Ptb1.y;
估算的标定杆十字中心点坐标为(Ptb1.x+w/2,Ptb1.y+h/2)。
4)如果找到2个平行的凸缺陷点,例如:B1和B2、B3和B4、B1和B3或B2和B4,以B1和B3为例进行说明,Ptb1表示B1的点坐标,Ptb3表示B3的点坐标:
将B1和B3组成垂直线段,先计算h=Ptb3.y-Ptb1.y,然后由Ptb1.y+h/2可以快速估算出标定杆十字中心点Y坐标数值;
优选的,设置Y方向阈值为5,分别从凸包中找出与B1 Y方向的偏差小于阈值的点(A3和A4)和B3 Y方向的偏差小于阈值的点(A5和A6);
分别计算A3与B1和B1与A4的像素距离Distb1a3和Distb1a4,Distb1a4减去Distb1a3得到B1 X方向的宽度wb1。
同理计算B3 X方向的宽度wb3,标定杆十字中心点X坐标数值为(wb1+wb3)/4。
5)如果仅找到1个凸缺陷点,以B1为例进行说明,Ptb1表示B1的点坐标:
设置Y方向阈值5,分别从凸点中找出与B1 Y方向的偏差小于阈值的点A3和A4;
分别计算A3与B1和B1与A4的像素距离Dista3b1和Distb1a4,Distb1a4减去Dista3b1得到B1 X方向的宽度wb1。标定杆理论上是用同等规格的型材制成,因此,其高度也可粗略估算为wb1,这样标定杆十字中心点的坐标可估算为(Ptb1.x+wb1/2,Ptb1.y+wb1/2)。
如图14所示,图14是水下标定杆的示意图,进一步的,根据标定杆的十字中心点得到着生藻类的相对高度,具体包括:
从稠密三维点云数据ID l中找出标定杆十字中心点的Z轴坐标,得到着生藻类覆盖面到标定杆的高度,记作b;
将标定杆到水底的高度记作a,将a减去b得到着生藻类的相对高度,记作c。
可以理解的,通过计算标定杆的十字中心点,可以得到着生藻类相对水底的覆盖高度,标定杆中心点到水底的高度a是加工时进行了精确测量的,是已知的。
S5、根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标。
如图15所示,具体的,所述着生藻类监测指标包括着生藻类覆盖度变化率指标、着生藻类生长高度变化率指标和着生藻类生物量变化率指标,步骤S5具体包括:根据着生藻类覆盖度指标和着生藻类生长高度指标计算着生藻类的体积以及着生藻类的生物量指标;
通过当前时刻的着生藻类覆盖度指标和上一时刻着生藻类覆盖度指标确定着生藻类覆盖度变化率指标;
通过当前时刻的着生藻类生长高度和上一时刻着生藻类生长高度确定着生藻类生长高度变化率指标;
根据当前时刻的着生藻类生物量指标和上一时刻着生藻类生物量指标确定着生藻类生物量变化率指标。
其中,根据“109um3≈1mg鲜藻重的换算关系”把着生藻类的体积换算成生物量(mg/L,湿重)。
通过引入着生藻类覆盖度变化率指标、生长高度变化率指标和生物量变化率指标,对着生藻类的生长状态进行定量化分析,不仅能够反映着生藻类的覆盖情况,还能够对其生长高度和生物量进行综合评估;通过对着生藻类覆盖度、生长高度和生物量的变化率进行监测,及时发现着生藻类生态环境中的变化,分析出着生藻类的生长演变趋势。
本发明还公开了一种基于双目图像的着生藻类监测系统,采用如上述所述的着生藻类监测方法,包括:
语义分割模块,其配置为采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集,采用数据集训练基于深度学习的着生藻类语义分割模型;
重建模块,其配置为采集双目序列图像数据,并对双目序列图像数据进行矫正处理并重建双目图像数据,得到重建后的双目图像;
着生藻类覆盖度检测模块,其配置为使用训练好的着生藻类语义分割模型对重建后的双目图像进行着生藻类覆盖度检测;
着生藻类生长高度检测模块,其配置为利用双目图像匹配技术获得三维数据,在着生藻类覆盖区域进行着生藻类生长高度检测;
着生藻类监测模块,其配置为根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于双目图像的着生藻类监测方法,其特征在于,包括以下步骤:
S1、采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集;
S2、采用数据集训练基于深度学习的着生藻类语义分割模型;
S3、采集双目序列图像数据,对双目序列图像数据进行矫正处理并重建双目图像数据,得到重建后的双目图像Istr;
S4、使用训练好的着生藻类语义分割模型在重建后的双目图像Istr上进行着生藻类覆盖度检测和着生藻类生长高度检测;
S5、根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标;
步骤S3包括:
S31、使用水下双目相机同时采集不同姿态的多帧标定板图像数据并进行标定,获取水下双目相机的内外参数;
S32、根据水下双目相机的内参数分别对水下双目相机采集的双目图像数据进行畸变矫正处理和极线对齐处理,并进行左右拼接形成双目序列图像;
S33、对双目序列图像进行预处理,并计算预处理后双目序列图像的低秩矩阵;
S34、通过双目序列图像的低秩矩阵重建双目图像数据,得到重建后的双目图像Istr;
其中,左右拼接形成双目序列图像矫正后的图像序列ImgList,预处理具体包括:
对图像序列ImgList中的图像进行缩放处理,得到缩放后的双目图像;
对缩放后的双目图像进行中值滤波处理,并进行清晰度增强操作;
将清晰度增强后的双目图像进行颜色空间转换,得到预处理后的双目图像;
对图像序列ImgList中的所有图像进行以上预处理操作,得到预处理后的双目图像序列Imgstereo;
其中,计算预处理后双目序列图像的低秩矩阵包括计算低秩矩阵LAhat、UAhat和VAhat,具体包括:
分别构造三个单通道的图像序列,包括
将预处理后的双目图像序列Imgstereo进行通道分离,并分别存入单通道的图像序列,得到LList、UList和VList;
分别计算LList、UList和VList的低秩矩阵,得到低秩矩阵LAhat、UAhat和VAhat;
所述着生藻类覆盖度检测具体包括:
将重建后的双目图像Istr切分为左视图Istr l和右视图Istr r;
将左视图Istr l输入至训练好的着生藻类语义分割模型,检测出左视图Istr l的着生藻类分布区域,得到单通道的BMask图像;
在左视图Istr l上采用多边形划线方式选定着生藻类的监控区域,并统计监控区域内着生藻类的像素面积;
根据监控区域的像素面积和监控区域内检测的着生藻类的像素面积,得到着生藻类的覆盖度指标;
所述着生藻类生长高度检测具体包括:
根据左视图Istr l和右视图Istr r进行双目图像匹配操作,计算视差图像Id;
对视差图像Id进行加权最小二乘滤波,得到稠密的视差图像Id W;
基于稠密的视差图像Id W结合水下双目相机中左相机的标定参数,计算稠密三维点云数据ID l;
对稠密三维点云数据ID l中点云数据进行滤波处理,设置Z方向阈值,并删除稠密三维点云数据ID l中Z坐标小于0和大于Z方向阈值的点云数据;
以单通道的BMask图像为掩膜统计稠密三维点云数据ID l中Z坐标平均值,所述Z坐标平均值为相机视角着生藻类的高度;
计算左视图Istr l中标定杆的位置,根据左视图Istr l中标定杆的位置和左相机视角着生藻类的高度得到着生藻类的相对高度;
根据相机视角着生藻类的高度和着生藻类的相对高度得到着生藻类的生长高度指标。
2.如权利要求1所述的一种基于双目图像的着生藻类监测方法,其特征在于,所述计算左视图Istr l中标定杆的位置,根据左视图Istr l中标定杆的位置和左相机视角着生藻类的高度得到着生藻类的相对高度,具体包括:
在左视图Istr l中框选标定杆的检测区域Re,从左视图Istr l中截取检测区域Re的图像,对图像/>进行预处理和边缘检测,得到边缘图像Iedge;
对边缘图像Iedge进行特征点检测和特征点校验得到校验后的凸缺陷点;
根据校验后的凸缺陷点确定图像中标定杆的十字中心点,并根据标定杆的十字中心点得到着生藻类的相对高度。
3.如权利要求2所述的一种基于双目图像的着生藻类监测方法,其特征在于,所述根据校验后的凸缺陷点确定图像中标定杆的十字中心点,具体包括:
将所有校验后的凸缺陷点进行排序,形成凸缺陷点序列;
分别计算凸缺陷点序列中任意两个凸缺陷点的宽度差,并将宽度差的平均值作为十字中心点的X坐标;
分别计算两个凸缺陷点在垂直方向上的距离差,将垂直方向上的距离差作为十字中心点的Y坐标。
4.如权利要求3所述的一种基于双目图像的着生藻类监测方法,其特征在于,所述对边缘图像Iedge进行特征点检测和特征点校验得到校验后的凸缺陷点,具体包括:
计算边缘图像Iedge的所有外轮廓{Oi},并找到最大外轮廓O1;
对最大外轮廓O1进行凸包检测,得到凸包的集合{Ai};
根据凸包的集合{Ai}对最大外轮廓O1进行凸缺陷检测,得到凸缺陷点集合{Bi|Bi=IDi S,IDi E,IDi F,Di},其中IDi S表示第i个凸缺陷点在最大外轮廓O1中的起始点索引,IDi E表示第i个凸缺陷点在最大外轮廓O1中的结束点索引,IDi F表示第i个凸缺陷点在最大外轮廓O1中距离凸包最远点索引,Di表示第i个凸缺陷点在最大外轮廓O1中距离凸包最远点与最大外轮廓O1的像素距离;
分别计算凸包的集合{Ai}中任意两个凸包之间的像素距离d1,根据像素距离d1进行凸包间距检验,当像素距离d1小于预设第一阈值时,计算两个凸包之间的中心点,将中心点代替两个凸包作为新的凸包并形成集合{Fi};其中集合{Fi}中还包括像素距离d1大于第一预设阈值的凸包;
设置第二阈值,随机选取凸缺陷点集合{Bi}中一个凸缺陷点作为起始点,从起始点开始遍历,直至凸缺陷点集合{Bi}中的全部凸缺陷点均被遍历,将凸缺陷点集合{Bi}中凸缺陷点到最大外轮廓O1的像素距离小于第二阈值的凸缺陷点进行删除,得到集合{Ci};
依次计算集合{Ci}中相邻两个凸缺陷点之间的像素距离d2,当像素距离d2小于预设第一阈值时,计算两个凸缺陷点之间的中心点,将中心点代替两个凸缺陷点作为新的凸缺陷点并形成形成集合{Pi};其中集合{Pi}中还包括像素距离d2大于第一预设阈值的凸缺陷点;
根据集合{Fi}和集合{Pi}进行特征点校验得到校验后的凸缺陷点。
5.如权利要求4所述的一种基于双目图像的着生藻类监测方法,其特征在于,所述根据集合{Fi}和集合{Pi}进行特征点校验得到校验后的凸缺陷点,具体包括:
步骤a、构建集合{Pi}中任意凸缺陷点对应的结构体,所述结构体包括点ID和点校验命中次数count;
步骤b、设置第三阈值,依次计算集合{Pi}中任意两个凸缺陷点之间的间距d3,如果间距d3小于第三阈值,则将点校验命中次数count加1;
步骤c、将点校验命中次数count按照从小到大的顺序进行排列,形成label序列;
步骤d、若label[0]的count数值与集合{Pi}的个数不同,则删除label[0]中ID对应的凸缺陷点;
步骤e、重复步骤b-d,直至步骤d中label[0]中count数值与集合{Pi}的个数相同;
步骤f、计算集合{Fi}中凸包与对应集合{Pi}中凸缺陷点之间的像素距离d4,若像素距离d4小于第二阈值,则删除集合{Pi}中的凸缺陷点;
步骤g、按照顺时针方向,从集合{Pi}中第二个凸缺陷点开始,依次将当前凸缺陷点、上一个凸缺陷点和下一个凸缺陷点组成三角形,并计算当前凸缺陷点与相邻两个凸缺陷点之间的夹角θ,设置第四阈值和第五阈值,若θ小于第四阈值或大于第五阈值,则删除当前凸缺陷点;
步骤h、按照步骤g,遍历验证集合{Pi}中所有凸缺陷点,得到校验后的凸缺陷点。
6.如权利要求2所述的一种基于双目图像的着生藻类监测方法,其特征在于,所述对图像进行预处理和边缘检测,具体包括:
将图像按照预设尺寸进行缩放处理并转换成灰度图像,得到图像Igray;
对图像Igray进行中值滤波去噪,并采用CLAHE算法进行对比度拉伸操作,得到拉伸后的图像;
使用高斯模糊算法对拉伸后的图像进行处理,得到图像Ire E;
在图像Ire E上计算OTSU阈值,并根据OTSU阈值以及预设的第一阈值系数和第二阈值系数进行计算,得到高低阈值;
使用Canny边缘检测方法从图像Ire E中提取出标定杆的边缘特征,并进行形态学膨胀操作,得到边缘图像Iedge。
7.如权利要求1所述的一种基于双目图像的着生藻类监测方法,其特征在于,所述着生藻类监测指标包括着生藻类覆盖度变化率指标、着生藻类生长高度变化率指标和着生藻类生物量变化率指标,步骤S5具体包括:根据着生藻类覆盖度指标和着生藻类生长高度指标计算着生藻类的体积以及着生藻类的生物量指标;
通过当前时刻的着生藻类覆盖度指标和上一时刻着生藻类覆盖度指标确定着生藻类覆盖度变化率指标;
通过当前时刻的着生藻类生长高度和上一时刻着生藻类生长高度确定着生藻类生长高度变化率指标;
根据当前时刻的着生藻类生物量指标和上一时刻着生藻类生物量指标确定着生藻类生物量变化率指标。
8.一种基于双目图像的着生藻类监测系统,其特征在于,采用如权利要求1-7任一项所述的着生藻类监测方法,包括:
语义分割模块,其配置为采集水下双目相机拍摄的着生藻类图像数据并进行mask标注,建立数据集,采用数据集训练基于深度学习的着生藻类语义分割模型;
重建模块,其配置为采集双目序列图像数据,对双目序列图像数据进行矫正处理并重建双目图像数据,得到重建后的双目图像;
着生藻类覆盖度检测模块,其配置为使用训练好的着生藻类语义分割模型对重建后的双目图像进行着生藻类覆盖度检测;
着生藻类生长高度检测模块,其配置为利用双目图像匹配技术获得三维数据,在着生藻类覆盖区域进行着生藻类生长高度检测;
着生藻类监测模块,其配置为根据着生藻类覆盖度和着生藻类的生长高度计算着生藻类监测指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410379594.5A CN117975254B (zh) | 2024-03-29 | 2024-03-29 | 一种基于双目图像的着生藻类监测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410379594.5A CN117975254B (zh) | 2024-03-29 | 2024-03-29 | 一种基于双目图像的着生藻类监测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117975254A CN117975254A (zh) | 2024-05-03 |
CN117975254B true CN117975254B (zh) | 2024-06-11 |
Family
ID=90859885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410379594.5A Active CN117975254B (zh) | 2024-03-29 | 2024-03-29 | 一种基于双目图像的着生藻类监测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117975254B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110220845A (zh) * | 2019-04-26 | 2019-09-10 | 长江流域水环境监测中心 | 一种着生藻生长带的原位监测方法及装置 |
CN111746728A (zh) * | 2020-06-17 | 2020-10-09 | 重庆大学 | 一种基于强化学习的新型水上清洁机器人及控制方法 |
TW202133724A (zh) * | 2020-03-06 | 2021-09-16 | 國立臺灣海洋大學 | 結合無人機之水產養殖用機動監測系統 |
CN114454137A (zh) * | 2022-04-12 | 2022-05-10 | 西南交通大学 | 基于双目视觉的钢结构损伤智能巡检方法、系统及机器人 |
CN115170638A (zh) * | 2022-07-13 | 2022-10-11 | 东北林业大学 | 一种双目视觉立体匹配网络系统及其构建方法 |
CN116311243A (zh) * | 2023-03-22 | 2023-06-23 | 生态环境部长江流域生态环境监督管理局生态环境监测与科学研究中心 | 一种基于显微镜图像的藻类检测方法及系统 |
CN116777806A (zh) * | 2023-06-29 | 2023-09-19 | 西安邮电大学 | 一种基于脑视觉原理的水下图像增强方法、系统及终端 |
DE102022108168A1 (de) * | 2022-04-05 | 2023-10-05 | Endress+Hauser Conducta Gmbh+Co. Kg | Verfahren und System zum Überwachen eines Algenwachstums in einem Gewässer |
CN116958964A (zh) * | 2023-07-26 | 2023-10-27 | 中国科学院南京地理与湖泊研究所 | 一种数据知识双驱动的硅藻图像分类系统和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10929966B2 (en) * | 2018-02-24 | 2021-02-23 | United States Of America As Represented By The Administrator Of Nasa | System and method for imaging underwater environments using fluid lensing |
-
2024
- 2024-03-29 CN CN202410379594.5A patent/CN117975254B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110220845A (zh) * | 2019-04-26 | 2019-09-10 | 长江流域水环境监测中心 | 一种着生藻生长带的原位监测方法及装置 |
TW202133724A (zh) * | 2020-03-06 | 2021-09-16 | 國立臺灣海洋大學 | 結合無人機之水產養殖用機動監測系統 |
CN111746728A (zh) * | 2020-06-17 | 2020-10-09 | 重庆大学 | 一种基于强化学习的新型水上清洁机器人及控制方法 |
DE102022108168A1 (de) * | 2022-04-05 | 2023-10-05 | Endress+Hauser Conducta Gmbh+Co. Kg | Verfahren und System zum Überwachen eines Algenwachstums in einem Gewässer |
CN114454137A (zh) * | 2022-04-12 | 2022-05-10 | 西南交通大学 | 基于双目视觉的钢结构损伤智能巡检方法、系统及机器人 |
CN115170638A (zh) * | 2022-07-13 | 2022-10-11 | 东北林业大学 | 一种双目视觉立体匹配网络系统及其构建方法 |
CN116311243A (zh) * | 2023-03-22 | 2023-06-23 | 生态环境部长江流域生态环境监督管理局生态环境监测与科学研究中心 | 一种基于显微镜图像的藻类检测方法及系统 |
CN116777806A (zh) * | 2023-06-29 | 2023-09-19 | 西安邮电大学 | 一种基于脑视觉原理的水下图像增强方法、系统及终端 |
CN116958964A (zh) * | 2023-07-26 | 2023-10-27 | 中国科学院南京地理与湖泊研究所 | 一种数据知识双驱动的硅藻图像分类系统和方法 |
Non-Patent Citations (4)
Title |
---|
Late Holocene wet/dry intervals from Fuegian steppe at Laguna Carmen, southern Argentina, based on a multiproxy record;Ana María Borromei 等;《Palaeogeography, Palaeoclimatology, Palaeoecology》;20180615;第499卷;全文 * |
Untangling microbiota diversity and assembly patterns in the world’s longest underground culvert water diversion canal;Mengyao Wang 等;《Environmental Monitoring and Assessment》;20230722;第175卷;全文 * |
基于深度学习技术的藻类智能监测系统开发;胡圣 等;《中国环境监测》;20220215;第38卷(第1期);全文 * |
基于视频监控的湖泊滨岸带蓝藻水华实时定量监测方法及应用研究;刘傅彰 等;《环境工程学报》;20240226;第18卷(第2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117975254A (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764257B (zh) | 一种多视角的指针式仪表识别方法 | |
CN114241031B (zh) | 基于双视角融合的鱼类体尺测量和体重预测的方法及装置 | |
CN108364280A (zh) | 结构裂缝自动化描绘及宽度精准测量方法与设备 | |
CN104268505A (zh) | 基于机器视觉的布匹疵点自动检测识别装置及方法 | |
CN104977313A (zh) | 一种焊缝x射线图像缺陷检测与识别方法和装置 | |
CN109145808B (zh) | 一种基于自适应鱼体弯曲模型的金枪鱼识别方法 | |
CN115512215B (zh) | 水下生物监测方法、装置及存储介质 | |
CN113484867B (zh) | 一种基于成像声呐封闭空间下鱼群密度探测方法 | |
CN110503623A (zh) | 一种基于卷积神经网络的识别输电线路上鸟巢缺陷的方法 | |
CN113989353A (zh) | 一种猪只背膘厚度测定方法及系统 | |
CN111415349A (zh) | 一种基于图像处理技术的涤纶长丝毛丝检测方法 | |
CN110728269B (zh) | 一种基于c2检测数据的高铁接触网支柱杆号牌识别方法 | |
CN115100688A (zh) | 一种基于深度学习的鱼类资源快速识别方法和系统 | |
CN112833821B (zh) | 高密度ic焊点的微分几何立体微视觉检测系统及方法 | |
CN117975254B (zh) | 一种基于双目图像的着生藻类监测方法及系统 | |
CN111161227B (zh) | 一种基于深度神经网络的靶心定位方法及系统 | |
CN113012127A (zh) | 基于胸部医学影像的心胸比测量方法 | |
Mizuno et al. | Application of a high-resolution acoustic video camera to fish classification: An experimental study | |
CN113628182B (zh) | 鱼类重量自动估计方法、装置、电子设备及存储介质 | |
CN114092470B (zh) | 一种基于深度学习的肺裂自动检测方法及装置 | |
CN115984360A (zh) | 一种基于图像处理的计算干滩长度的方法及系统 | |
CN108898584A (zh) | 一种基于图像分析的全自动贴面电容装焊极性判别方法 | |
Ziqiang et al. | Research of the algorithm calculating the length of bridge crack based on stereo vision | |
CN118397073A (zh) | 一种基于关键点和双目立体视觉估算养殖鱼类长度的方法 | |
CN108122226B (zh) | 一种玻璃缺陷的检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |