CN110889844A - 一种基于深度聚类分析的珊瑚分布及健康状况评估方法 - Google Patents
一种基于深度聚类分析的珊瑚分布及健康状况评估方法 Download PDFInfo
- Publication number
- CN110889844A CN110889844A CN201911201375.3A CN201911201375A CN110889844A CN 110889844 A CN110889844 A CN 110889844A CN 201911201375 A CN201911201375 A CN 201911201375A CN 110889844 A CN110889844 A CN 110889844A
- Authority
- CN
- China
- Prior art keywords
- coral
- image
- color
- coverage rate
- health
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Farming Of Fish And Shellfish (AREA)
- Image Analysis (AREA)
Abstract
本发明属于海洋珊瑚生物研究技术领域,具体涉及一种基于深度聚类分析的珊瑚分布及健康状况评估方法。本发明通过改进的图像拼接算法将采集的视频图像拼接成较大的图像,利用深度学习算法对暖水珊瑚进行目标识别检测,之后将识别目标通过k‑means分割算法进行图像分割,最后再来研究珊瑚的分布及健康状况。本发明提出的方法提高了图像拼接效率,实现了珊瑚图像的光滑无缝拼接,利用YOLOV3实现了对图像中珊瑚的快速检测,通过图像分割计算珊瑚面积提高了珊瑚覆盖率的精确度,使得珊瑚分布及健康状况的整体计算速率获得很大提高,对研究珊瑚礁的分布情况和健康状况具有良好的效果。
Description
技术领域
本发明属于海洋珊瑚生物研究技术领域,具体涉及一种基于深度聚类分析的珊瑚分布及健康状况评估方法。
背景技术
珊瑚礁是海洋中生物种类最丰富、生物多样性最高的生态系统之一,具有极高的生产力水平,是与陆地的热带雨林齐名的海洋生物资源宝库,因而也被称为海洋中的热带雨林。栖息在珊瑚礁区的各类海洋生物达到上万种,对海洋环境和海洋生态系统的优化具有重要的意义。
尽管全球珊瑚礁面积达到2×108km2,但目前珊湖礁正处于不断衰减的恶化状态中受全球气候和环境变化的影响,近20年来全球绝大部分发育珊琐礁的海域都出现过珊瑚大量死亡和生态系统恶化的现象发生在1997到1998年间的厄尔尼诺事件,导致全球大约16%的珊湖礁发生白化和死亡现象,这次事件波及了世界范围内50多个国家,遍及太平洋、印度洋和大西洋的主要珊糊礁区。珊糊礁生态系统对热带海岸资源及环境保护具有重要意义,保护珊糊礁资源已经成为全世界关注的问题。
近年来,随着水下机器人的快速发展,人们对海洋展开了大量的研究。利用水下机器人对暖水珊瑚进行视频采集,研究珊瑚的分布及健康状况。然而在获取珊瑚的视频图像时,由于光线在水中传播过程中,存在强烈的散射特性以及吸收特性导致光线较弱,极大地限制了摄像机对海底成像的可视范围与距离。导致单幅海底图像仅仅能获取和记录有限距离和视角内的信息,对珊瑚研究造成困难。
发明内容
本发明的目的在于提供解决单幅海底图像难以进行珊瑚研究问题,提高获取珊瑚在海洋中分布情况的精确度以及计算效率,并且可对珊瑚健康状况进行高精度评估的一种基于深度聚类分析的珊瑚分布及健康状况评估方法。
本发明的目的通过如下技术方案来实现:
包括以下步骤:
步骤1:建立海底珊瑚数据集;对海底珊瑚数据集进行深度学习离线训练,生成YOLOV3检测器;所述的海底珊瑚数据集包括珊瑚、与珊瑚共生的海藻和底质;
步骤2:通过水下摄像机和进行航位推算的设备记录水下图像及其所对应的经纬度信息;
步骤3:将水下摄像机采集的连续多帧具有重叠区域的海底图像中的每幅图像与其对应的经纬度信息进行匹配,将多幅图像拼接成一幅水下图像;
步骤4:将拼接图像等分成m×n个小方块,在每个小方块中,利用YOLOV3检测器对小方块中的海底目标进行识别,标出类别标签;
步骤5:在每一个小方块中进行图像分割;结合YOLOV3检测器识别出的类别标签获取小方块中各类别的比例,将小方块中占比最大的类别定义为小方块的类别;
步骤6:将每一个类别为珊瑚的小方块的主颜色与珊瑚健康色卡进行比对,获得该类别为珊瑚的方块的主颜色分数Si;
步骤7:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W,并根据珊瑚礁健康状况的综合得分W获得珊瑚礁健康评估结果;
步骤8:记录所有珊瑚对应的种类与颜色分数,与其所对应的经纬度信息进行匹配,获得珊瑚分布状况。
本发明还可以包括:
所述的步骤3中将多幅图像拼接成一幅水下图像具体为:
步骤3.1:对待拼接珊瑚图像进行图像预处理,提高图像质量;
步骤3.2:利用SIFT算法获取参考图像和待配准图像的特征点;
步骤3.3:用欧式距离比对提取出的特征点进行特征匹配,找出所有的潜在匹配点对;
步骤3.4:根据检测到的特征匹配点对,分析相邻图像序列的相交区域变化,进而计算出相机的运动情况,建立Kalman滤波器来预测相机下一时刻的运动趋势,估计下一图像对的相交区域;在估计图像对相交区域的基础上,将检测到的特征点进行区域匹配;
步骤3.5:利用SFM算法恢复出相机的外部参数和场景的稀疏三维点云图;
步骤3.6:在恢复出的稀疏三维点云图的基础上,通过最小化所有特征点到拼接参考平面的距离和,获取最佳投影平面;通过旋转平移将最佳投影平面与世界坐标系的平面重合,作为图像的参考平面;
步骤3.7:选取骨架图像,由运动结构恢复算法恢复的参数作为最终的骨架图像的变换参数;
步骤3.8:通过全局调整优化配准结果,得到配准图像;
步骤3.9:计算两幅待拼接图像的重叠区域的均值和方差;计算来自重叠区域像素的概率分布函数;
步骤3.10:根据概率分布函数计算重叠区域的每一个像素的权值;
步骤3.11:根据权值实现像素的重新取值,进而完成图像融合,实现拼接。
所述的步骤5中图像分割的方法具体为:
步骤5.1:将YOLOV3检测识别中标出的每一个框作为待分割图像,输入待分割图像,进行预处理;
步骤5.2:将YOLOV3检测出的标签的种类数量作为聚类计算的簇的数目K值,各标签图框中心作为聚类中心的初始值即为初始中心点mi,i=1,2...K;
步骤5.3:初始化K个聚类中心;
步骤5.4:计算图像中的每个像素点到每一个簇的加权距离,并将图像中的每个像素点划分到与其加权距离最小的簇中;
步骤5.5:重新计算各个簇的聚簇中心,新的聚簇中心为每个簇所有对象灰度值的平均值;
步骤5.6:计算聚簇质量E:
如果聚簇质量达到了期望值或者达到了预先设定的最大迭代次数,则停止迭代,否则重新迭代聚簇过程;
步骤5.7:根据聚簇结果,将同一个簇中的对象用相同的颜色标记,不同簇中的对象用不同的颜色标记,输出最终的分割图像。
所述的步骤6中类别为珊瑚的小方块的主颜色为小方块中获得排名第1位非黑色的颜色;所述的步骤6中获得类别为珊瑚的方块的主颜色分数Si的方法具体为:
步骤6.1:将主颜色值由RGB转换成HSV,转换公式为:
V=Cmax
步骤6.2:计算HSV域内类别为珊瑚的小方块的主颜色值到珊瑚健康色卡每一个颜色方块的颜色距离值;HSV域(H,S,V)点的坐标(x,y,z)计算公式为:
x=r*V*S*cosH
y=r*V*S*sinH
z=h*(1-V)
颜色距离计算公式如下所示:
其中,(x0,y0,z0)是HSV域内类别为珊瑚的小方块的主颜色值的坐标;(xi,yi,zi)是HSV域内珊瑚健康色卡每一个颜色方块的颜色值的坐标;
步骤6.3:根据颜色距离最小值对应的色卡颜色方块信息获得该类别为珊瑚的方块的主颜色分数Si。
所述的步骤7中珊瑚礁健康状况的综合得分W的计算方法具体为:
步骤7.1:计算珊瑚覆盖率、活珊瑚覆盖率、死珊瑚覆盖率、与珊瑚共生的藻类覆盖率;
其中:TC为珊瑚覆盖率;LC为活珊瑚覆盖率;DC为死珊瑚覆盖率;AL为与珊瑚共生的藻类覆盖率;a为珊瑚在拼接图像中所占的小方块数量;al为活珊瑚在拼接图像中所占的小方块数量;ad为死珊瑚在拼接图像中所占的小方块数量;b为与珊瑚共生的藻类在拼接图像中所占的小方块数量;
步骤7.2:计算珊瑚健康指数CI;
CI=lg[LC/(DC+AL)];
步骤7.3:计算所有珊瑚主颜色的平均颜色分数MI;
步骤7.4:根据计算出的珊瑚覆盖率TC、珊瑚健康指数CI和所有珊瑚主颜色的平均颜色分数MI获得其对应的评价得分w1、w2和w3;
w1=TC×100
步骤7.5:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W;
其中:α1为珊瑚覆盖率权重值;α2为珊瑚健康指数权重值;α3为所有珊瑚主颜色的平均颜色分数的权重值。
本发明的有益效果在于:
1.本发明所采用的图像拼接方法,是根据水下摄像机采集珊瑚视频具有空间和时间的连续性的基础上,利用Kalman滤波器,预测下一帧待拼接图像的坐标变换模型的参数,来提高图像拼接速度。
2.传统图像配准方法都是在二维图像平面特征点的基础上进行。当拍摄的图像数量较大,用待配准图像中的某一幅图像作为参考图像并不能解决全局配准问题。针对以上存在问题,本发明在传统图像配准方法基础上以空间点云为基拟合一个最佳投影平面作为参考图像,从而实现水下图像拼接。
3.由于水下图像模糊、对比度低、光照不均、噪声严重等导致的图像质量差问题,使得水下图像进行拼接处理时不能像陆上图像那样直接进行。针对于此,本发明通过图像滤波去噪等手段来提高图像质量。
4.本发明利用检测速度较快的YOLOV3检测模型对珊瑚进行识别,提高了检测速度,使得整体的珊瑚分布及健康状况计算速度得以提升。
5.本发明识别聚类每个小方框各主要成分的比例,那个占比大的种类视为整个方框都为此种类,方便计算面积,提高计算珊瑚、与珊瑚共生的海藻、底质覆盖率的运算速率。
6.瑚礁健康状况评估通过计算该区域活珊瑚覆盖率、珊瑚健康指数(CI)以及该区域珊瑚平均颜色分数来实现。对各珊瑚礁评价指标得分进行加权计算求和,进而获得珊瑚礁健康状况评估结果,提高评价准确性。
附图说明
图1为一种基于深度聚类分析的珊瑚分布及健康状况评估方法的流程图。
图2位一种基于深度聚类分析的珊瑚分布及健康状况评估方法的结构图。
图3为改进的图像配准技术流程图。
图4为基于高斯模型的渐入渐出融合法流程图。
图5为基于改进的k-means的图像分割流程图。
图6为珊瑚礁健康状况综合评价模型图。
具体实施方式
下面结合附图对本发明做进一步描述。
近年来,随着水下机器人的快速发展,人们对海洋展开了大量的研究。利用水下机器人对暖水珊瑚进行视频采集,研究珊瑚的分布及健康状况。然而在获取珊瑚的视频图像时,由于光线在水中传播过程中,存在强烈的散射特性以及吸收特性导致光线较弱,极大地限制了摄像机对海底成像的可视范围与距离。导致单幅海底图像仅仅能获取和记录有限距离和视角内的信息,对珊瑚研究造成困难。基于此种问题,本发明提出一种基于深度聚类分析的珊瑚分布及健康状况评估方法,通过改进的图像拼接算法将采集的视频图像拼接成较大的图像,利用现在发展较为火热的深度学习算法对暖水珊瑚进行目标识别检测,之后将识别目标通过k-means分割算法进行图像分割,最后再来研究珊瑚的分布及健康状况。本发明提出的方法解决了上述问题,提高了获取珊瑚在海洋中分布情况的精确度,以及计算效率,并且对珊瑚健康状况进行了高精度评估。
本发明的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,可适用于离线和在线两种情况下。离线部分是指在探测设备回收上传数据之后,分析水下摄像机图片及图片对应的经纬度信息,通过图像拼接、目标识别、聚类分割和颜色对比,进行珊瑚种类识别和健康状况判断。在线部分是将珊瑚健康色卡信息储存在水下嵌入式处理系统中。通过水下嵌入式识别系统对珊瑚探测区域进行实时在线检测,将识别为珊瑚的目标与水下嵌入式处理系统中珊瑚健康色卡的颜色进行比对,给出珊瑚对应的种类与颜色分数,判断出珊瑚健康状况,标记出健康状况不佳珊瑚和健康珊瑚所处位置;待探测结束后,根据之前标记结果获得珊瑚分布及对应的健康状况。
珊瑚礁健康状况评估通过计算该区域珊瑚覆盖率、珊瑚健康指数以及该区域珊瑚平均颜色分数来实现。向珊瑚综合评价模型输入各珊瑚礁评价指标得分,结合相应的权重参数输出珊瑚礁综合得分,进而获得珊瑚礁健康状况评估结果。珊瑚覆盖率、珊瑚健康指数以及平均颜色分数都可作为珊瑚礁健康状况评价指标,它们的评价侧重点不同。单一的评价指标会导致珊瑚礁健康状况评价结果较为片面,因此本发明将珊瑚覆盖率、珊瑚健康指数以及平均颜色分数对珊瑚礁健康状况进行联合评估,提高了珊瑚礁健康评价的准确性。
如图1和2所示。本发明为一种基于深度聚类分析的珊瑚分布及健康状况评估方法,该方法包括以下步骤:
步骤1:首先建立海底珊瑚数据集,数据集包括珊瑚、与珊瑚共生的海藻和底质三类。对数据集进行深度学习离线训练,生成YOLOV3检测器。
步骤2:通过水下摄像机和进行航位推算的水下惯导、罗经、DVL等设备记录水下图像及其所对应的经纬度信息。
步骤3:将水下摄像机采集的连续多帧具有重叠区域的海底图像中的每幅图像与其对应的经纬度信息进行匹配,将多幅图像拼接成一幅宽场景、大范围的水下图像。
步骤4:将拼接图像等分成m×n个小方块。在每个小方块中,利用YOLOV3检测器对小方块中的海底目标进行识别,标出类别标签。
步骤5:接着在每一个小方块中通过改进的k-means方法进行图像分割,以此计算小方块中各个类别在图像中的面积,结合YOLOV3检测识别出的类别标签进而获取小方块中各主要成分的比例,将其中占比最大的类别视为整个小方框都为此类别,以方便计算各类别面积。
步骤6:对珊瑚健康状况进行自动评估。将类别为珊瑚的方块的主颜色与珊瑚健康色卡的颜色进行配对,给出珊瑚对应的种类与颜色分数,不同的颜色分数对应相应珊瑚的健康程度。
步骤7:最后记录所有珊瑚对应的种类与颜色分数,与其所对应的经纬度信息进行匹配,获得珊瑚分布状况。
步骤8:计算珊瑚、活珊瑚、死珊瑚、与珊瑚共生的藻类和其他生物群落的覆盖率。计算该区域的珊瑚健康指数,用它来表述珊瑚礁的健康状况。计算该区域所有珊瑚主颜色的平均颜色分数。
步骤9:根据计算出的珊瑚覆盖率,获得其对应的评价得分w1。根据计算出的该区域珊瑚健康指数,获得其对应的评价得分w2。根据计算出的该区域所有珊瑚主颜色的平均颜色分数,获得其对应的评价得分w3。
步骤10:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标。根据不同评价指数的权重值,构造珊瑚礁健康的综合评价模型。然后根据模型对珊瑚礁健康状况输出综合得分W。最后根据珊瑚礁综合得分对珊瑚礁健康状况进行综合评价,获得相应的评价结果。
本发明中涉及的SIFT算法、SFM算法均为现有算法。
步骤3中,包括以下步骤:
第一步:如图3所示,利用SIFT算法获取参考图像和待配准图像的特征点,用欧式距离比对提取出的特征点进行特征匹配,分析相邻图像序列的相交区域变化,进而计算出相机的运动情况。然后以已知的相机运动参数为目标建立Kalman滤波器,预测相机下一时刻的运动趋势,估计下一图像对的相交区域。之后,在估计图像对相交区域的基础上,将检测到的特征点进行区域匹配,减少特征点的匹配次数,提高匹配效率。第k帧与k+帧图像之间的相似变换模型为:
第二步:运动恢复结构算法(SFM)是通过分析摄像机的运动信息来获取目标场景的三维结构即目标的三维点云的过程。其中特征点提取与匹配是该算法的基础。该算法基于二视图点云生成理论,获得有序的图像序列以后,提取图像对的匹配特征,依据外极线约束条件,计算两幅图像之间的本征矩阵,然后通过对本征矩阵进行奇异值分解,得到摄像机的运动参数旋转矩阵及和平移向量r,经最后一步计算可得到空间离散点的三维坐标,从而生成图像所对应的三维点云,并利用光束法平差算法对生成的三维点云和对应的相机参数进行优化调整。通过基于SFM算法以空间点云为基础拟合一个最佳投影平面为参考平面。
第三步:如图4所示,图像融合技术环节采用的是像素级图像融合的思想,利用基于高斯模型的渐入渐出融合法实现图像融合。渐入渐出法是一种采用渐入渐出的思想实现平滑过渡的方法,设f代表融合后的图像,f1和f2分别代表待拼接的两幅图像,则有:
这里β1和β2分别是第一幅图像和第二幅图像中感兴趣区域对应像素的权值,并且满足β1+β2=1,0<β1<1,0<β2<1,选择适当的权值,可以使重叠区域实现平滑过渡,消除拼接痕迹。
步骤4中,包括以下步骤:
第一步:YOLOV3建立特征金字塔网络模型(FPN),该模型从特征空间金字塔的出发,每一次低语义、高分辨率的特征与高语义、低分辨率的特征相融合得到的特征的尺度都不相同,针对3种不同尺寸的特征映射图都进行回归预测,所以在训练时,无需逐步构建自顶向下网络,而是直接对完整的网络进行端到端的训练。
第二步:制作珊瑚数据集,采用k-means算法对训练集数据中标注的真实目标边框进行聚类。采用面积交并比IOU作为评级指标来获得训练集数据中预测的珊瑚类目标的初始候选目标边框。将初始候选目标边框作为YOLOV3网络的初始网络参数;调用YOLOV3网络的初始网络参数,并将训练集数据输入YOLOV3网络进行训练,直至训练集数据输出的损失函数值小于等于阈值或达到设置的最大迭代次数N时停止训练,得到训练好的YOLOV3网络。
第三步:将测试集数据输入训练好的YOLOV3网络,若测试集数据对应的检测精度大于等于精度阈值,则将训练好的YOLOV3网络作为最终的YOLOV3网络;若测试集数据对应的检测精度小于精度阈值,则继续训练第二步得到的训练好的YOLOV3网络,直至测试集数据对应的检测精度大于等于精度阈值,将此时的YOLOV3网络作为最终的YOLOV3网络。
第四步:将步骤1中拼接好的珊瑚图像输入最终的YOLOV3网络,对珊瑚进行检测,标定出珊瑚的边框。
步骤5中,包括以下步骤:
如图5所示,先取K个初始距离的中心,计算每个像素到这K个中心的距离,找出最小距离,把像素归入最近的聚类中心,修改中心点的值为本类所有像素的均值,再计算每个像素到K个中心的距离,重新归类,修改新的中心点,直到达到期望值或最大迭代次数为止。
步骤6中,包括以下步骤:
第一步:在聚类获得的珊瑚图像中统计出珊瑚的主颜色(因珊瑚图像中背景为黑色,获得排名第1位非黑色的颜色作为珊瑚的主颜色)。
第二步:将主颜色值由RGB转换成HSV;转换公式如下所示:
V=Cmax
第三步:计算HSV域内类别为珊瑚的小方块的主颜色值到珊瑚健康色卡每一个颜色方块的颜色距离值;HSV域(H,S,V)点的坐标(x,y,z)计算公式如下所示:
x=r*V*S*cosH
y=r*V*S*sinH
z=h*(1-V)
颜色距离计算公式如下所示:
公式中,(x0,y0,z0)是HSV域内类别为珊瑚的小方块的主颜色值的坐标;(xi,yi,zi)是HSV域内珊瑚健康色卡每一个颜色方块的颜色值的坐标。
第四步:颜色距离最小值对应的色卡颜色方块信息(该颜色方块对应的珊瑚种类和颜色分数)对应着该珊瑚的健康程度。
步骤8中,如图5所示,包括以下步骤:
第一步:计算珊瑚、活珊瑚、死珊瑚、与珊瑚共生的藻类和其他生物群落的覆盖率。
珊瑚覆盖率为:
活珊瑚覆盖率为:
死珊瑚覆盖率为:
藻类覆盖率为:
公式中:a为珊瑚在拼接图像中所占的小方块数量;al为活珊瑚在拼接图像中所占的小方块数量;ad为死珊瑚在拼接图像中所占的小方块数量;b为与珊瑚共生的藻类在拼接图像中所占的小方块数量。
第二步:计算该区域的珊瑚健康指数(CI),用它来表述珊瑚礁的健康状况。
CI=lg[LC/(DC+AL)]
第三步:计算该区域所有珊瑚主颜色的平均颜色分数。
公式中:Gi为第个珊瑚小方块珊瑚的主颜色分数。
步骤9中,包括以下步骤:
第一步:根据计算出的珊瑚覆盖率,获得其对应的评价得分w1。计算公式如下
w1=TC×100
第二步:根据计算出的该区域珊瑚健康指数,获得其对应的评价得分w2。计算公式如下:
第三步:根据计算出的该区域所有珊瑚主颜色的平均颜色分数,获得其对应的评价得分w3。计算公式如下:
步骤10中,如图6所示,包括以下步骤:
第一步:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标。
第二步:根据不同评价指数的权重值,构造珊瑚礁健康的综合评价模型。然后根据模型对珊瑚礁健康状况输出综合得分W。综合得分计算公式如下所示:
公式中:α1为珊瑚覆盖率权重值;α2为珊瑚健康指数权重值;α3为所有珊瑚主颜色的平均颜色分数的权重值。
第三步:最后根据珊瑚礁综合得分对珊瑚礁健康状况进行综合评价,获得相应的评价结果。
评价“良好”表明珊瑚礁生态系统保持其自然属性,生态系统主要服务功能正常发挥,病害或人为活动所产生的生态压力在生态系统的承载范围之内。评价“一般”表明珊瑚礁生态系统基本保持其自然属性,生态系统结构发生一定程度的改变,生态系统主要服务功能不能完全正常发挥,病害或人为活动所产生的生态压力超出生态系统的承载能力,但生态系统在去除人为干预的情况下尚能自然修复。评价“差”表明珊瑚礁生态系统自然属性明显改变,生态系统结构发生较大程度改变,生态系统主要服务功能严重退化或丧失,病害或人为活动所产生的生态压力超出生态系统的承载能力,生态系统在短期内难以恢复。
本发明提出的方法提高了图像拼接效率,实现了珊瑚图像的光滑无缝拼接,利用YOLOV3实现了对图像中珊瑚的快速检测,通过图像分割计算珊瑚面积提高了珊瑚覆盖率的精确度,使得珊瑚分布及健康状况的整体计算速率获得很大提高,对研究珊瑚礁的分布情况和健康状况具有良好的效果。
本发明具有以下优点:
1.本发明所采用的图像拼接方法,是根据水下摄像机采集珊瑚视频具有空间和时间的连续性的基础上,利用Kalman滤波器,预测下一帧待拼接图像的坐标变换模型的参数,来提高图像拼接速度。
2.传统图像配准方法都是在二维图像平面特征点的基础上进行。当拍摄的图像数量较大,用待配准图像中的某一幅图像作为参考图像并不能解决全局配准问题。针对以上存在问题,本发明在传统图像配准方法基础上以空间点云为基拟合一个最佳投影平面作为参考图像,从而实现水下图像拼接。
3.由于水下图像模糊、对比度低、光照不均、噪声严重等导致的图像质量差问题,使得水下图像进行拼接处理时不能像陆上图像那样直接进行。针对于此,本发明通过图像滤波去噪等手段来提高图像质量。
4.本发明利用检测速度较快的YOLOV3检测模型对珊瑚进行识别,提高了检测速度,使得整体的珊瑚分布及健康状况计算速度得以提升。
5.本发明识别聚类每个小方框各主要成分的比例,那个占比大的种类视为整个方框都为此种类,方便计算面积,提高计算珊瑚、与珊瑚共生的海藻、底质覆盖率的运算速率。
6.瑚礁健康状况评估通过计算该区域活珊瑚覆盖率、珊瑚健康指数(CI)以及该区域珊瑚平均颜色分数来实现。对各珊瑚礁评价指标得分进行加权计算求和,进而获得珊瑚礁健康状况评估结果,提高评价准确性。
图像拼接部分采用改进的图像拼接方法。针对水下摄像机采集的珊瑚图像序列在时间和空间上具有连续性的特点以及将二维投影平面作为参考平面在全局配准方面性能较差的问题,本发明将Kalman滤波器和空间点云引入到图像配准算法中。利用SIFT算法获取参考图像和待配准图像的特征点,用欧式距离比对提取出的特征点进行特征匹配,分析相邻图像序列的相交区域变化,进而计算出相机的运动情况。然后以已知的相机运动参数为目标建立Kalman滤波器,预测相机下一时刻的运动趋势,估计下一图像对的相交区域。之后,在估计图像对相交区域的基础上,将检测到的特征点进行区域匹配,减少特征点的匹配次数,提高匹配效率。通过基于SFM算法以空间点云为基础拟合一个最佳投影平面为参考平面。图像融合技术环节采用的是像素级图像融合的思想,利用基于高斯模型的渐入渐出融合法实现图像融合。图像拼接的主要工作步骤如下:
(1)首先对待拼接珊瑚图像进行图像预处理,提高图像质量。
(2)利用SIFT算法获取参考图像和待配准图像的特征点。
(3)用欧式距离比对提取出的特征点进行特征匹配,找出所有的潜在匹配点对。
(4)根据检测到的特征匹配点对,分析相邻图像序列的相交区域变化,进而计算出相机的运动情况,建立Kalman滤波器来预测相机下一时刻的运动趋势,估计下一图像对的相交区域。之后,在估计图像对相交区域的基础上,将检测到的特征点进行区域匹配。
(5)利用SFM算法恢复出相机的外部参数和场景的稀疏三维点云图。
(6)然后在上述恢复出的稀疏三维点云图的基础上,通过最小化所有特征点到拼接参考平面的距离和,获取最佳投影平面,并且通过旋转平移将这个平面与世界坐标系的平面重合,最终作为图像的参考平面。
(7)为了提高计算效率,选取图像作为骨架图像,骨架图像的变换参数,由运动结构恢复算法恢复的参数作为最终的变换参数。
(8)通过全局调整优化配准结果,得到配准图像。
(9)分别计算两幅待拼接图像的重叠区域的均值和方差,之后计算来自重叠区域像素的概率分布函数。
(10)根据概率分布函数计算重叠区域的每一个像素的权值。
(11)最后根据权值实现像素的重新取值,进而完成图像融合,实现拼接。
目标识别部分将大量的海底珊瑚图像制作成数据集,该数据集中目标分为三类:珊瑚、与珊瑚共生的藻类和底质。通过YOLOV3网络模型离线训练数据集生成YOLOV3检测器,利用生成的YOLOV3检测器对珊瑚拼接图像进行检测识别,绘制出珊瑚、与珊瑚共生的藻类和底质所在位置的目标边界框,标出类别标签。将检测出的各标签图框中心作为下一步k-means聚类中心的初始值,将识别出标签的种类数量作为聚类计算的簇的数目。
图像分割部分采用基于改进的k-means方法进行图像分割,主要工作步骤如下:
(1)将YOLOV3检测识别中标出的每一个框作为待分割图像。
(2)输入待分割图像,进行平滑滤波等预处理。
(3)将YOLOV3检测出的标签的种类数量作为聚类计算的簇的数目即为K值,各标签图框中心作为聚类中心的初始值即为初始中心点mi(i=1,2…K)。
(4)初始化K个聚类中心。
(5)计算图像中的每个像素点到每一个簇的加权距离而不是欧氏距离,并将图像中的每个像素点划分到与其加权距离最小的簇中。
(6)重新计算各个簇的聚簇中心,新的聚簇中心为每个簇所有对象灰度值的平均值,计算聚簇质量E,计算公式如下所示:
(7)如果聚簇质量达到了期望值或者达到了预先设定的最大迭代次数,则停止迭代,否则重新迭代聚簇过程。
(8)根据聚簇结果,将同一个簇中的对象用相同的颜色标记,不同簇中的对象用不同的颜色标记,输出最终的分割图像。
由于健康珊瑚中的海藻会提供颜色,在白化过程中,珊瑚会排出组织中的藻类使颜色改变,随着珊瑚排出越多藻类,颜色会逐渐变浅。本方法根据珊瑚这一特点,以珊瑚颜色作为评价珊瑚健康状况的指标,通过比较珊瑚和珊瑚健康色卡中的颜色来进行珊瑚健康评估。珊瑚健康色卡以四种珊瑚来分类:枝状珊瑚、片状珊瑚、软珊瑚、石珊瑚。该色卡是根据白化及健康珊瑚的实际颜色而制,每种珊瑚包括6个颜色方块,每一个颜色方块可以代表居住在珊瑚组织里的共生藻类浓度,这也是直接影响珊瑚健康的因素。每一个颜色方块对应着一种颜色分数,颜色分数为1的珊瑚为死珊瑚,颜色分数为2-6的珊瑚为活珊瑚,健康程度从低到高。本发明使用计算机根据色卡颜色来对珊瑚健康状况进行自动评估。
将珊瑚礁健康评价标准划分为三个等级:Ⅰ级为良好、Ⅱ级为一般、Ⅲ级为差。综合得分0-40为差,41-75为一般,71-100为良好。通过权利要求4中珊瑚礁获得的综合得分给出相应的珊瑚礁健康等级,得出相应的评价结果。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于,包括以下步骤:
步骤1:建立海底珊瑚数据集;对海底珊瑚数据集进行深度学习离线训练,生成YOLOV3检测器;所述的海底珊瑚数据集包括珊瑚、与珊瑚共生的海藻和底质;
步骤2:通过水下摄像机和进行航位推算的设备记录水下图像及其所对应的经纬度信息;
步骤3:将水下摄像机采集的连续多帧具有重叠区域的海底图像中的每幅图像与其对应的经纬度信息进行匹配,将多幅图像拼接成一幅水下图像;
步骤4:将拼接图像等分成m×n个小方块,在每个小方块中,利用YOLOV3检测器对小方块中的海底目标进行识别,标出类别标签;
步骤5:在每一个小方块中进行图像分割;结合YOLOV3检测器识别出的类别标签获取小方块中各类别的比例,将小方块中占比最大的类别定义为小方块的类别;
步骤6:将每一个类别为珊瑚的小方块的主颜色与珊瑚健康色卡进行比对,获得该类别为珊瑚的方块的主颜色分数Si;
步骤7:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W,并根据珊瑚礁健康状况的综合得分W获得珊瑚礁健康评估结果;
步骤8:记录所有珊瑚对应的种类与颜色分数,与其所对应的经纬度信息进行匹配,获得珊瑚分布状况。
2.根据权利要求1所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤3中将多幅图像拼接成一幅水下图像具体为:
步骤3.1:对待拼接珊瑚图像进行图像预处理,提高图像质量;
步骤3.2:利用SIFT算法获取参考图像和待配准图像的特征点;
步骤3.3:用欧式距离比对提取出的特征点进行特征匹配,找出所有的潜在匹配点对;
步骤3.4:根据检测到的特征匹配点对,分析相邻图像序列的相交区域变化,进而计算出相机的运动情况,建立Kalman滤波器来预测相机下一时刻的运动趋势,估计下一图像对的相交区域;在估计图像对相交区域的基础上,将检测到的特征点进行区域匹配;
步骤3.5:利用SFM算法恢复出相机的外部参数和场景的稀疏三维点云图;
步骤3.6:在恢复出的稀疏三维点云图的基础上,通过最小化所有特征点到拼接参考平面的距离和,获取最佳投影平面;通过旋转平移将最佳投影平面与世界坐标系的平面重合,作为图像的参考平面;
步骤3.7:选取骨架图像,由运动结构恢复算法恢复的参数作为最终的骨架图像的变换参数;
步骤3.8:通过全局调整优化配准结果,得到配准图像;
步骤3.9:计算两幅待拼接图像的重叠区域的均值和方差;计算来自重叠区域像素的概率分布函数;
步骤3.10:根据概率分布函数计算重叠区域的每一个像素的权值;
步骤3.11:根据权值实现像素的重新取值,进而完成图像融合,实现拼接。
3.根据权利要求1或2所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤5中图像分割的方法具体为:
步骤5.1:将YOLOV3检测识别中标出的每一个框作为待分割图像,输入待分割图像,进行预处理;
步骤5.2:将YOLOV3检测出的标签的种类数量作为聚类计算的簇的数目K值,各标签图框中心作为聚类中心的初始值即为初始中心点mi,i=1,2...K;
步骤5.3:初始化K个聚类中心;
步骤5.4:计算图像中的每个像素点到每一个簇的加权距离,并将图像中的每个像素点划分到与其加权距离最小的簇中;
步骤5.5:重新计算各个簇的聚簇中心,新的聚簇中心为每个簇所有对象灰度值的平均值;
步骤5.6:计算聚簇质量E:
如果聚簇质量达到了期望值或者达到了预先设定的最大迭代次数,则停止迭代,否则重新迭代聚簇过程;
步骤5.7:根据聚簇结果,将同一个簇中的对象用相同的颜色标记,不同簇中的对象用不同的颜色标记,输出最终的分割图像。
4.根据权利要求1或2所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤6中类别为珊瑚的小方块的主颜色为小方块中获得排名第1位非黑色的颜色;所述的步骤6中获得类别为珊瑚的方块的主颜色分数Si的方法具体为:
步骤6.1:将主颜色值由RGB转换成HSV,转换公式为:
V=Cmax
步骤6.2:计算HSV域内类别为珊瑚的小方块的主颜色值到珊瑚健康色卡每一个颜色方块的颜色距离值;HSV域(H,S,V)点的坐标(x,y,z)计算公式为:
x=r*V*S*cosH
y=r*V*S*sinH
z=h*(1-V)
颜色距离计算公式如下所示:
其中,(x0,y0,z0)是HSV域内类别为珊瑚的小方块的主颜色值的坐标;(xi,yi,zi)是HSV域内珊瑚健康色卡每一个颜色方块的颜色值的坐标;
步骤6.3:根据颜色距离最小值对应的色卡颜色方块信息获得该类别为珊瑚的方块的主颜色分数Si。
5.根据权利要求3所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤6中类别为珊瑚的小方块的主颜色为小方块中获得排名第1位非黑色的颜色;所述的步骤6中获得类别为珊瑚的方块的主颜色分数Si的方法具体为:
步骤6.1:将主颜色值由RGB转换成HSV,转换公式为:
V=Cmax
步骤6.2:计算HSV域内类别为珊瑚的小方块的主颜色值到珊瑚健康色卡每一个颜色方块的颜色距离值;HSV域(H,S,V)点的坐标(x,y,z)计算公式为:
x=r*V*S*cosH
y=r*V*S*sinH
z=h*(1-V)
颜色距离计算公式如下所示:
其中,(x0,y0,z0)是HSV域内类别为珊瑚的小方块的主颜色值的坐标;(xi,yi,zi)是HSV域内珊瑚健康色卡每一个颜色方块的颜色值的坐标;
步骤6.3:根据颜色距离最小值对应的色卡颜色方块信息获得该类别为珊瑚的方块的主颜色分数Si。
6.根据权利要求1或2所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤7中珊瑚礁健康状况的综合得分W的计算方法具体为:
步骤7.1:计算珊瑚覆盖率、活珊瑚覆盖率、死珊瑚覆盖率、与珊瑚共生的藻类覆盖率;
其中:TC为珊瑚覆盖率;LC为活珊瑚覆盖率;DC为死珊瑚覆盖率;AL为与珊瑚共生的藻类覆盖率;a为珊瑚在拼接图像中所占的小方块数量;al为活珊瑚在拼接图像中所占的小方块数量;ad为死珊瑚在拼接图像中所占的小方块数量;b为与珊瑚共生的藻类在拼接图像中所占的小方块数量;
步骤7.2:计算珊瑚健康指数CI;
CI=lg[LC/(DC+AL)];
步骤7.3:计算所有珊瑚主颜色的平均颜色分数MI;
步骤7.4:根据计算出的珊瑚覆盖率TC、珊瑚健康指数CI和所有珊瑚主颜色的平均颜色分数MI获得其对应的评价得分w1、w2和w3;
w1=TC×100
步骤7.5:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W;
其中:α1为珊瑚覆盖率权重值;α2为珊瑚健康指数权重值;α3为所有珊瑚主颜色的平均颜色分数的权重值。
7.根据权利要求3所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤7中珊瑚礁健康状况的综合得分W的计算方法具体为:
步骤7.1:计算珊瑚覆盖率、活珊瑚覆盖率、死珊瑚覆盖率、与珊瑚共生的藻类覆盖率;
其中:TC为珊瑚覆盖率;LC为活珊瑚覆盖率;DC为死珊瑚覆盖率;AL为与珊瑚共生的藻类覆盖率;a为珊瑚在拼接图像中所占的小方块数量;al为活珊瑚在拼接图像中所占的小方块数量;ad为死珊瑚在拼接图像中所占的小方块数量;b为与珊瑚共生的藻类在拼接图像中所占的小方块数量;
步骤7.2:计算珊瑚健康指数CI;
CI=lg[LC/(DC+AL)];
步骤7.3:计算所有珊瑚主颜色的平均颜色分数MI;
步骤7.4:根据计算出的珊瑚覆盖率TC、珊瑚健康指数CI和所有珊瑚主颜色的平均颜色分数MI获得其对应的评价得分w1、w2和w3;
w1=TC×100
步骤7.5:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W;
其中:α1为珊瑚覆盖率权重值;α2为珊瑚健康指数权重值;α3为所有珊瑚主颜色的平均颜色分数的权重值。
8.根据权利要求4所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤7中珊瑚礁健康状况的综合得分W的计算方法具体为:
步骤7.1:计算珊瑚覆盖率、活珊瑚覆盖率、死珊瑚覆盖率、与珊瑚共生的藻类覆盖率;
其中:TC为珊瑚覆盖率;LC为活珊瑚覆盖率;DC为死珊瑚覆盖率;AL为与珊瑚共生的藻类覆盖率;a为珊瑚在拼接图像中所占的小方块数量;al为活珊瑚在拼接图像中所占的小方块数量;ad为死珊瑚在拼接图像中所占的小方块数量;b为与珊瑚共生的藻类在拼接图像中所占的小方块数量;
步骤7.2:计算珊瑚健康指数CI;
CI=lg[LC/(DC+AL)];
步骤7.3:计算所有珊瑚主颜色的平均颜色分数MI;
步骤7.4:根据计算出的珊瑚覆盖率TC、珊瑚健康指数CI和所有珊瑚主颜色的平均颜色分数MI获得其对应的评价得分w1、w2和w3;
w1=TC×100
步骤7.5:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W;
其中:α1为珊瑚覆盖率权重值;α2为珊瑚健康指数权重值;α3为所有珊瑚主颜色的平均颜色分数的权重值。
9.根据权利要求5所述的一种基于深度聚类分析的珊瑚分布及健康状况评估方法,其特征在于:所述的步骤7中珊瑚礁健康状况的综合得分W的计算方法具体为:
步骤7.1:计算珊瑚覆盖率、活珊瑚覆盖率、死珊瑚覆盖率、与珊瑚共生的藻类覆盖率;
其中:TC为珊瑚覆盖率;LC为活珊瑚覆盖率;DC为死珊瑚覆盖率;AL为与珊瑚共生的藻类覆盖率;a为珊瑚在拼接图像中所占的小方块数量;al为活珊瑚在拼接图像中所占的小方块数量;ad为死珊瑚在拼接图像中所占的小方块数量;b为与珊瑚共生的藻类在拼接图像中所占的小方块数量;
步骤7.2:计算珊瑚健康指数CI;
CI=lg[LC/(DC+AL)];
步骤7.3:计算所有珊瑚主颜色的平均颜色分数MI;
步骤7.4:根据计算出的珊瑚覆盖率TC、珊瑚健康指数CI和所有珊瑚主颜色的平均颜色分数MI获得其对应的评价得分w1、w2和w3;
w1=TC×100
步骤7.5:将珊瑚覆盖率、珊瑚健康指数和该区域所有珊瑚主颜色的平均颜色分数作为珊瑚礁健康状况的评价指标,根据不同评价指数的权重值,得到珊瑚礁健康状况的综合得分W;
其中:α1为珊瑚覆盖率权重值;α2为珊瑚健康指数权重值;α3为所有珊瑚主颜色的平均颜色分数的权重值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911201375.3A CN110889844B (zh) | 2019-11-29 | 2019-11-29 | 一种基于深度聚类分析的珊瑚分布及健康状况评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911201375.3A CN110889844B (zh) | 2019-11-29 | 2019-11-29 | 一种基于深度聚类分析的珊瑚分布及健康状况评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110889844A true CN110889844A (zh) | 2020-03-17 |
CN110889844B CN110889844B (zh) | 2023-03-21 |
Family
ID=69749489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911201375.3A Active CN110889844B (zh) | 2019-11-29 | 2019-11-29 | 一种基于深度聚类分析的珊瑚分布及健康状况评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110889844B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111487245A (zh) * | 2020-04-03 | 2020-08-04 | 中国地质大学(武汉) | 一种类珊瑚礁水域生物质量演化评估系统 |
CN111695503A (zh) * | 2020-06-11 | 2020-09-22 | 自然资源部第一海洋研究所 | 基于双波段辐亮度的珊瑚礁底质分类方法 |
CN112949632A (zh) * | 2021-03-05 | 2021-06-11 | 哈尔滨工程大学 | 一种珊瑚礁白化自动识别方法及系统 |
CN113160302A (zh) * | 2021-04-25 | 2021-07-23 | 国家海洋局南海环境监测中心(中国海监南海区检验鉴定中心) | 一种珊瑚群落分析方法及装置 |
CN113255595A (zh) * | 2021-06-29 | 2021-08-13 | 北京中建建筑科学研究院有限公司 | 基于区块链技术的多摄像头土方覆盖率的智能计算方法 |
CN113313203A (zh) * | 2021-06-22 | 2021-08-27 | 哈尔滨工程大学 | 一种基于可拓理论和深度学习的医学图像分类方法 |
KR20220063347A (ko) * | 2020-11-10 | 2022-05-17 | 주식회사 유앤유 | 인공지능 기반의 미세조류 검출장치 및 그 방법 |
KR20230028612A (ko) * | 2021-08-19 | 2023-03-02 | (주)엠큐빅 | 인공지능을 이용하는 미세조류 분석장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103402088A (zh) * | 2009-06-11 | 2013-11-20 | 索尼公司 | 图像处理装置和图像处理方法 |
CN106399548A (zh) * | 2016-10-28 | 2017-02-15 | 海南大学 | 基于砗磲线粒体16s基因扩增引物及其应用 |
US20170235996A1 (en) * | 2015-07-28 | 2017-08-17 | Chiman KWAN | Method and system for collaborative multi-satellite remote sensing |
CN110044828A (zh) * | 2019-04-26 | 2019-07-23 | 华南理工大学 | 一种声光融合的珊瑚活性探测系统及方法 |
-
2019
- 2019-11-29 CN CN201911201375.3A patent/CN110889844B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103402088A (zh) * | 2009-06-11 | 2013-11-20 | 索尼公司 | 图像处理装置和图像处理方法 |
US20170235996A1 (en) * | 2015-07-28 | 2017-08-17 | Chiman KWAN | Method and system for collaborative multi-satellite remote sensing |
CN106399548A (zh) * | 2016-10-28 | 2017-02-15 | 海南大学 | 基于砗磲线粒体16s基因扩增引物及其应用 |
CN110044828A (zh) * | 2019-04-26 | 2019-07-23 | 华南理工大学 | 一种声光融合的珊瑚活性探测系统及方法 |
Non-Patent Citations (3)
Title |
---|
LONG-JENG LEE等: "《The_health_study_of_seagrass_and_coral_REFF_by_underwater_hyperspectral_imager》", 《IEEE》, 12 November 2015 (2015-11-12) * |
王圆圆等: "《珊瑚礁遥感研究进展》", 《地球科学进展》, 30 April 2007 (2007-04-30) * |
纪雅宁等: "《基于PSR模型的珊瑚礁生态...康评价指标体系的构建与应用》", 《应用海洋学学报》, 31 August 2014 (2014-08-31) * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111487245A (zh) * | 2020-04-03 | 2020-08-04 | 中国地质大学(武汉) | 一种类珊瑚礁水域生物质量演化评估系统 |
CN111695503A (zh) * | 2020-06-11 | 2020-09-22 | 自然资源部第一海洋研究所 | 基于双波段辐亮度的珊瑚礁底质分类方法 |
CN111695503B (zh) * | 2020-06-11 | 2023-04-18 | 自然资源部第一海洋研究所 | 基于双波段辐亮度的珊瑚礁底质分类方法 |
KR20220063347A (ko) * | 2020-11-10 | 2022-05-17 | 주식회사 유앤유 | 인공지능 기반의 미세조류 검출장치 및 그 방법 |
KR102436336B1 (ko) * | 2020-11-10 | 2022-08-25 | 주식회사 유앤유 | 인공지능 기반의 미세조류 검출장치 및 그 방법 |
CN112949632A (zh) * | 2021-03-05 | 2021-06-11 | 哈尔滨工程大学 | 一种珊瑚礁白化自动识别方法及系统 |
CN113160302A (zh) * | 2021-04-25 | 2021-07-23 | 国家海洋局南海环境监测中心(中国海监南海区检验鉴定中心) | 一种珊瑚群落分析方法及装置 |
CN113313203A (zh) * | 2021-06-22 | 2021-08-27 | 哈尔滨工程大学 | 一种基于可拓理论和深度学习的医学图像分类方法 |
CN113255595A (zh) * | 2021-06-29 | 2021-08-13 | 北京中建建筑科学研究院有限公司 | 基于区块链技术的多摄像头土方覆盖率的智能计算方法 |
KR20230028612A (ko) * | 2021-08-19 | 2023-03-02 | (주)엠큐빅 | 인공지능을 이용하는 미세조류 분석장치 |
KR102562371B1 (ko) | 2021-08-19 | 2023-08-02 | (주)엠큐빅 | 인공지능을 이용하는 미세조류 분석장치 |
Also Published As
Publication number | Publication date |
---|---|
CN110889844B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889844B (zh) | 一种基于深度聚类分析的珊瑚分布及健康状况评估方法 | |
Von Stumberg et al. | Gn-net: The gauss-newton loss for multi-weather relocalization | |
Engin et al. | Cycle-dehaze: Enhanced cyclegan for single image dehazing | |
CN110111366B (zh) | 一种基于多级损失量的端到端光流估计方法 | |
CN109766830B (zh) | 一种基于人工智能图像处理的舰船目标识别系统及方法 | |
CN107818326B (zh) | 一种基于场景多维特征的船只检测方法及系统 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
Pei et al. | Does haze removal help cnn-based image classification? | |
CN112001960B (zh) | 基于多尺度残差金字塔注意力网络模型的单目图像深度估计方法 | |
Xiao et al. | Multiple view semantic segmentation for street view images | |
Wang et al. | Real-time underwater onboard vision sensing system for robotic gripping | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN111626993A (zh) | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 | |
Levy et al. | Automated analysis of marine video with limited data | |
CN113408584B (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN112288776B (zh) | 一种基于多时间步金字塔编解码器的目标跟踪方法 | |
JP2017033197A (ja) | 変化領域検出装置、方法、及びプログラム | |
CN110941996A (zh) | 一种基于生成对抗网络的目标及轨迹增强现实方法和系统 | |
Wang et al. | Background extraction based on joint gaussian conditional random fields | |
CN113505670A (zh) | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
CN116883588A (zh) | 一种大场景下的三维点云快速稠密重建方法及系统 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
CN111160478A (zh) | 一种基于深度学习的高光谱目标显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |