CN109902761B - 一种基于海洋环境因子融合和深度学习的渔情预测方法 - Google Patents
一种基于海洋环境因子融合和深度学习的渔情预测方法 Download PDFInfo
- Publication number
- CN109902761B CN109902761B CN201910204182.7A CN201910204182A CN109902761B CN 109902761 B CN109902761 B CN 109902761B CN 201910204182 A CN201910204182 A CN 201910204182A CN 109902761 B CN109902761 B CN 109902761B
- Authority
- CN
- China
- Prior art keywords
- data
- fishing
- yield
- picture set
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于海洋环境因子融合和深度学习的渔情预测方法,包括步骤:S1:获取海洋环境因子数据和渔场作业数据;S2:对海洋环境因子数据和渔场作业数据进行预处理;S3:对预处理数据集进行图像合成,获得环境因子图片集和渔场数据图片集;S4:对渔场数据图片集进行标注,获得标注图片集;S5:利用环境因子图片集和标注图片集生成训练数据集和验证数据集;S6:建立一Mask R‑CNN模型并利用训练数据集训练Mask R‑CNN模型;S7:利用验证数据集验证训练后模型的精确度。本发明的一种基于海洋环境因子融合和深度学习的渔情预测方法,可实现渔场区域的自动检测,减少了人为干预,可省去不同参数的权重的步骤,同时保证结果的准确性。
Description
技术领域
本发明涉及渔情预测模型的构建领域,尤其涉及一种基于海洋环境因子融合和深度学习的渔情预测方法。
背景技术
长鳍金枪鱼是南太平洋金枪鱼延绳钓渔业的主要捕获鱼种之一,其产量占该海域金枪鱼类总产量的85%以上,该鱼种具有较大开发潜力,已引起包括中国在内的很多渔业国家的关注与重视。提高南太平洋长鳍金枪鱼的渔场渔情分析水平已成为国内研究重点,对于提高捕捞效率和效益及扩大我国的海洋权益等具有重要意义。
在我国,大多数情况是通过综合鱼种特征和海域特点等专家知识来定性地确定渔场,再采用传统数学分析方法、早期人工智能技术及GIS技术进行定量渔情预测。传统的数学分析方法主要是通过已有环境数据推算出数学模型,然后通过建立的模型对未知区域进行渔情预测。人工智能方法主要采用的是传统神经网络方法,通过把整个海域划分为网格区域,选用海表温度、海面高度、叶绿素a浓度等海洋环境数据等作为输入向量,将CPUE作为标签进行有监督学习,最后将学习训练好的模型直接作为一个黑盒进行渔情预测。
图像的语义分割技术是在深度神经网络的基础上建立的新型算法,主要用于实现图片像素级别的分类,在识别图中目标的基础上,能够标注每个目标的边界。现如今语义分割方法已经成功运用到自动驾驶、医学影像分割、遥感图片分析等方面,但在渔情预测方面的应用鲜有研究。
现有渔场分析方法只对作业区进行渔场分析,忽略了作业区之外的资源量,需要人为干预选择特征参数,需要消耗很大人员精力组织数据样本,而特征参数与数据样本的好坏直接影响到模型的准确性;其结果的准确性受到的干预因素较多因而无法保证。
发明内容
针对上述现有技术中的不足,本发明提供一种基于海洋环境因子融合和深度学习的渔情预测方法,可实现渔场区域的自动检测,减少了人为干预,利用模型的训练自动赋予不同环境因子权重,省去了不同参数的权重的步骤,同时保证结果的准确性。
为了实现上述目的,本发明提供一种基于海洋环境因子融合和深度学习的渔情预测方法,包括步骤:
S1:获取海洋环境因子数据和渔场作业数据。
S2:对所述海洋环境因子数据和所述渔场作业数据进行预处理,获得预处理数据集;
S3:对所述预处理数据集进行图像合成,获得环境因子图片集和渔场数据图片集;
S4:对所述渔场数据图片集进行标注,获得标注图片集;
S5:利用所述环境因子图片集和所述标注图片集生成一训练数据集和一验证数据集;
S6:建立一Mask R-CNN模型并利用训练数据集训练所述Mask R-CNN模型,获得一训练后模型;
S7:利用所述验证数据集验证所述训练后模型的精确度。
优选地,所述海洋环境因子数据包括:海面高度、叶绿素浓度和海表温度;所述渔场作业数据包括渔场作业区位置信息和各所述渔场作业区的单位捕捞努力量渔获量。
优选地,所述预处理数据集包括一映射数值集和一产量分区数据;
所述S2步骤中,对所述海洋环境因子数据进行预处理的步骤中包括步骤:
根据所述渔场作业区位置信息和所述单位捕捞努力量渔获量将对应一目标海域范围划分为至少一高产区和至少一低产区,形成所述产量分区数据;
对所述海洋环境因子数据进行预处理步骤中:通过公式(1)将所述海洋环境因子数据映射到0~255的RGB值之间,获得所述映射数值集:
其中,xi表示第i个海洋环境因子初始值,xmax表示此环境因子在全部目标区域中的最大值,xmin表示此环境因子在全部目标区域中的最小值,Xi表示映射后得到的值。
优选地,所述S3步骤进一步包括步骤:
S31:按照所述目标海域的经纬度生成多个对应像素比例的空白图片;
S32:将所述映射数值集按照所述映射数值集内各数值对应的经纬度位置合成至部分所述空白图片上,获得所述环境因子图片集;
S33:将所述产量分区数据按照所述产量分区数据内各数据对应的经纬度位置合成至另一部分所述空白图片上,获得所述渔场数据图片集。
优选地,所述S4步骤中:
所述渔场数据图片集按照所述高产区和所述低产区的产量进行标注,并将所述高产区和所述低产区标为不同的颜色;获得所述标注图片集。
优选地,所述S5步骤中,分别按照7:3的比例将所述环境因子图片集和所述标注图片集分成所述训练数据集和所述验证数据集。
优选地,所述S6步骤中所述Mask R-CNN模型满足卷积运算公式(2):
优选地,所述S7步骤进一步包括步骤:
S71:将所述验证数据集输入所述训练后模型,获得预测结果集;
S72:计算所述预测结果集中各预测结果数据的IoU值;
S73:将IoU值>0.75的所述预测结果数据所对应的渔场数目作为预测为正的正样本的数量TP;
将IoU值≤0.75的所述预测结果数据所对应的渔场数目和未检测到的渔场数目之和作为预测为负的正样本的数量FN;
将非渔场区域检测为渔场的预测结果数据的数量作为预测为正的负样本的数量FP;
S74:根据公式(3)计算准确率P:
根据公式(4)计算召回率R:
根据公式(5)计算评估标准mAP:
S75:利用所述评估标准mAP评价所述训练后模型的精确度。
优选地,所述S74步骤中,分别计算所述高产区、所述低产区和全部区域所对应的所述计算评估标准mAP;所述S75步骤中,根据所述高产区、所述低产区和全部区域所对应的所述计算评估标准mAP对所述训练后模型的精确度进行评估。
本发明由于采用了以上技术方案,使其具有以下有益效果:
通过Mask R-CNN模型的卷积核对环境参数进行自动处理减少了人为干预;在进行卷积运算的过程中,可以对目标像素点的相邻像素点进行共同的特征提取,相当于对目标像素点与周围的像素点进行相关性分析,与传统的单作业点分析相比,能够考虑到周围环境数据因素,因此可以取得更高的准确度。将整个目标海域数据转换为图片进行模型训练与和预测,在计算时保留了目标点的空间位置信息并参与计算增加了参数量,另外与传统的渔情预测模型相比,Mask R-CNN模型的深度神经网络模型的深度可以达到上百层,有更多的参数来对环境因子进行表示,同时也增加了模型的非线性,可以取得更高的精度。
附图说明
图1为本发明实施例的一种基于海洋环境因子融合和深度学习的渔情预测方法的流程图;
图2为本发明实施例的Mask R-CNN模型的原理图。
具体实施方式
下面根据附图1和图2,给出本发明的较佳实施例,并予以详细描述,使能更好地理解本发明的功能、特点。
请参阅图1和图2,本发明实施例的一种基于海洋环境因子融合和深度学习的渔情预测方法,包括步骤:
S1:获取海洋环境因子数据和渔场作业数据。
海洋环境因子数据包括:海面高度、叶绿素浓度和海表温度;渔场作业数据包括渔场作业区位置信息和各渔场作业区的单位捕捞努力量渔获量。
S2:对海洋环境因子数据和渔场作业数据进行预处理,获得预处理数据集。
本实施例中,预处理数据集包括一映射数值集和一产量分区数据;
S2步骤中,对海洋环境因子数据进行预处理的步骤中包括步骤:
根据渔场作业区位置信息和单位捕捞努力量渔获量将对应一目标海域范围划分为至少一高产区和至少一低产区,形成产量分区数据;
对海洋环境因子数据进行预处理步骤中:通过公式(1)将海洋环境因子数据映射到0~255的RGB值之间,获得映射数值集:
其中,xi表示第i个海洋环境因子初始值,xmax表示此环境因子在全部目标区域中的最大值,xmin表示此环境因子在全部目标区域中的最小值,Xi表示映射后得到的值。
S3:对预处理数据集进行图像合成,获得环境因子图片集和渔场数据图片集。
本实施例中,S3步骤进一步包括步骤:
S31:按照目标海域的经纬度生成多个对应像素比例的空白图片;
S32:将映射数值集按照映射数值集内各数值对应的经纬度位置合成至部分空白图片上,获得环境因子图片集;
S33:将产量分区数据按照产量分区数据内各数据对应的经纬度位置合成至另一部分空白图片上,获得渔场数据图片集。
S4:对渔场数据图片集进行标注,获得标注图片集。
渔场数据图片集按照高产区和低产区的产量进行标注,并将高产区和低产区标为不同的颜色;获得标注图片集。
S5:利用环境因子图片集和标注图片集生成一训练数据集和一验证数据集。
本实施例中,分别按照7:3的比例将环境因子图片集和标注图片集分成训练数据集和验证数据集。
S6:建立一Mask R-CNN模型并利用训练数据集训练Mask R-CNN模型,获得一训练后模型。
本实施例中,S6步骤中Mask R-CNN模型满足卷积运算公式(2):
S7:利用验证数据集验证训练后模型的精确度。
其中,S7步骤进一步包括步骤:
S71:将验证数据集输入训练后模型,获得一预测结果集;
S72:计算预测结果集中各预测结果数据的IoU值;
S73:将IoU值>0.75的预测结果数据所对应的渔场数目作为预测为正的正样本的数量TP;
将IoU值≤0.75的预测结果数据所对应的渔场数目和未检测到的渔场数目之和作为预测为负的正样本的数量FN;
将非渔场区域检测为渔场的预测结果数据的数量作为预测为正的负样本的数量FP;
S74:根据公式(3)计算准确率P:
根据公式(4)计算召回率R:
根据公式(5)计算评估标准mAP:
S75:利用评估标准mAP评价训练后模型的精确度。
分别计算高产区、低产区和全部区域所对应的计算评估标准mAP;S75步骤中,根据高产区、低产区和全部区域所对应的计算评估标准mAP对训练后模型的精确度进行评估。
例如:以南太平洋135°W~110°E,5°S~40°N的范围为研究海域,选取1996年1月至2015年12月为例。
首先,将整个海域按照1°×1°划分为网格区域,将整个海域中的环境因子数据以周为单位(共1000周)进行组织,即每周分别根据海表温度、海面高度、叶绿素a浓度数值生成三个155行35列大小的数组,将三个数组映射到0-255的范围。
其中,T表示1000周海表温度组构成的集合;Ti表示第i周的海表温度矩阵,Tmin为海表温度矩阵中的最小值;Tmax为海表温度矩阵中的最大值。Ti′为映射后获得的海表温度映射矩阵。
其中,H表示1000周海面高度组构成的集合;Hi表示第i周的海面高度矩阵,Hmin为海面高度矩阵中的最小值;Hmax为海面高度矩阵中的最大值。H′i为映射后获得的海面高度映射矩阵。
其中,A表示1000周叶绿素a浓度数据构成的集合;Ai表示第i周的叶绿素a浓度矩阵,Amin为叶绿素a浓度矩阵中的最小值;Amax为叶绿素a浓度矩阵中的最大值。A′i为映射后获得的叶绿素a浓度映射矩阵。
对于三个集合把Ti′、H′i、A′i分别作为RGB图像的三个通道合成环境因子图共1000张。
其次,生成155×35像素的空白图片,根据每周的单位捕捞努力量渔获量(CPUE)将高产区域的像素点标为红色,低产区的像素点标为蓝色生成1000张渔场产区图片。使用语义分割模型的标注软件对渔场产区图片进行标注生成训练所需的标注文件。
再次,将环境因子图作为训练数据集,将标注文件作为标签,从中选出700张作为训练集,300张作为验证集,使用Mask R-CNN模型进行训练。Mask R-CNN的原理图如图2所示。
然后,将环境因子的图片输入到Mask R-CNN模型中ResNet101+FPN的网络当中进行卷积运算得到特征图集合。采用RPN神经网络对特征图集合进行处理,生成渔场候选区域。RPN神经网络本质上是一个基于滑动窗口的目标检测器,在ResNet网络提取得到的特征图上产生滑动窗口,并且以中心像素为基点构造九个不同大小的锚框,分别对锚框进行分类和边框回归,最后获得候选区域。RPN神经网络以标注数据为导师进行学习训练出的检测器。将候选区域的特征图分别输入FCN分支和Faster RCNN分支。FCN分支为一个全卷积神经网络,通过将候选区域进行卷积操作进行特征提取,然后直接在卷积得到的高维向量上进行分类操作,将分类得到的结果进行反卷积和上池化操作得到图像掩模。Faster RCNN分支则是对候选区域进行分类和边框回归操作。将环境因子图和标签数据输入到模型当中进行训练。模型训练时以损失函数Loss作为目标函数进行优化。损失值Loss为Faster R-CNN的边框回归损失值、分类损失值和掩模(mask)的损失值Loss值的和。即:
L=Lcls+Lbox+Lmask
其中L为总损失函数,作为模型的优化目标。Lcls为分类损失函数,Lbox为边框回归损失函数,Lmask为掩模损失函数,即对于候选区域的每一个像素使用sigmod函数进行求相对熵,得到平均相对熵误差。
模型训练完成后,将验证集数据输入到模型当中进行渔场预测,模型将由FCN分支输出渔场的掩模(mask),由Faster R-CNN分支得输出渔场的检测框和类别。
最后,对于验证集生成的渔场掩模和检测框分别进行精确度评估,分别比较渔场区域的检测精度和掩模精度。对于检测框与掩模的评估均采取IoU=0.75作为阈值,高于IoU>0.75的视为正例。这里以掩模为例,检测框精度采取同样方法评估。对于图片生成的所有掩模与真实掩模进行IoU值计算将IoU值大于0.75的渔场数目设为TP(True positives),将IoU值小于0.75或者未检测到的渔场数目设为FN(False negatives),将非渔场区域检测为渔场的掩模数目设为FP(False positives):
根据公式(3)计算准确率P:
根据公式(4)计算召回率R:
根据公式(5)计算评估标准mAP:
分别计算高产区、低产区和所有产区的mAP作为评估标准综合评估。
本发明实施例的一种基于海洋环境因子融合和深度学习的渔情预测方法,通过卷积神经网络(CNN)的卷积核对环境参数进行自动处理减少了人为干预;卷积核为3×3等大小,在进行卷积运算的过程中,可以对目标像素点的相邻像素点进行共同的特征提取,相当于对目标像素点与周围的像素点进行相关性分析,与传统的单作业点分析相比,能够考虑到周围环境数据因素,因此可以取得更高的准确度。本发明的方法将整个目标海域数据转换为图片进行模型训练与和预测,在计算时保留了目标点的空间位置信息参与计算增加了参数量,与传统的渔情预测模型相比而深度神经网络模型的深度可以达到上百层,有更多的参数来对环境因子进行表示,同时也增加了模型的非线性,可以取得更高的精度。
以上结合附图实施例对本发明进行了详细说明,本领域中普通技术人员可根据上述说明对本发明做出种种变化例。因而,实施例中的某些细节不应构成对本发明的限定,本发明将以所附权利要求书界定的范围作为本发明的保护范围。
Claims (6)
1.一种基于海洋环境因子融合和深度学习的渔情预测方法,包括步骤:
S1:获取海洋环境因子数据和渔场作业数据;所述海洋环境因子数据包括:海面高度、叶绿素浓度和海表温度;所述渔场作业数据包括渔场作业区位置信息和各所述渔场作业区的单位捕捞努力量渔获量;
S2:对所述海洋环境因子数据和所述渔场作业数据进行预处理,获得预处理数据集;
S3:对所述预处理数据集进行图像合成,获得环境因子图片集和渔场数据图片集;
S4:对所述渔场数据图片集进行标注,获得标注图片集;
S5:利用所述环境因子图片集和所述标注图片集生成一训练数据集和一验证数据集;
S6:建立一Mask R-CNN模型并利用训练数据集训练所述Mask R-CNN模型,获得一训练后模型;
S7:利用所述验证数据集验证所述训练后模型的精确度;
所述预处理数据集包括一映射数值集和一产量分区数据;
所述S2步骤中,对所述海洋环境因子数据进行预处理的步骤中包括步骤:
根据所述渔场作业区位置信息和所述单位捕捞努力量渔获量将对应一目标海域范围划分为至少一高产区和至少一低产区,形成所述产量分区数据;
对所述海洋环境因子数据进行预处理步骤中:通过公式(1)将所述海洋环境因子数据映射到0~255的RGB值之间,获得所述映射数值集:
其中,xi表示第i个海洋环境因子初始值,xmax表示此环境因子在全部目标区域中的最大值,xmin表示此环境因子在全部目标区域中的最小值,Xi表示映射后得到的值;
所述S6步骤中所述Mask R-CNN模型满足卷积运算公式(2):
2.根据权利要求1所述的一种基于海洋环境因子融合和深度学习的渔情预测方法,其特征在于,所述S3步骤进一步包括步骤:
S31:按照所述目标海域的经纬度生成多个对应像素比例的空白图片;
S32:将所述映射数值集按照所述映射数值集内各数值对应的经纬度位置合成至部分所述空白图片上,获得所述环境因子图片集;
S33:将所述产量分区数据按照所述产量分区数据内各数据对应的经纬度位置合成至另一部分所述空白图片上,获得所述渔场数据图片集。
3.根据权利要求2所述的一种基于海洋环境因子融合和深度学习的渔情预测方法,其特征在于,所述S4步骤中:
所述渔场数据图片集按照所述高产区和所述低产区的产量进行标注,并将所述高产区和所述低产区标为不同的颜色;获得所述标注图片集。
4.根据权利要求3所述的一种基于海洋环境因子融合和深度学习的渔情预测方法,其特征在于,所述S5步骤中,分别按照7:3的比例将所述环境因子图片集和所述标注图片集分成所述训练数据集和所述验证数据集。
5.根据权利要求4所述的一种基于海洋环境因子融合和深度学习的渔情预测方法,其特征在于,所述S7步骤进一步包括步骤:
S71:将所述验证数据集输入所述训练后模型,获得一预测结果集;
S72:计算所述预测结果集中各预测结果数据的IoU值;
S73:将IoU值>0.75的所述预测结果数据所对应的渔场数目作为预测为正的正样本的数量TP;
将IoU值≤0.75的所述预测结果数据所对应的渔场数目和未检测到的渔场数目之和作为预测为负的正样本的数量FN;
将非渔场区域检测为渔场的预测结果数据的数量作为预测为正的负样本的数量FP;
S74:根据公式(3)计算准确率P:
根据公式(4)计算召回率R:
根据公式(5)计算评估标准mAP:
S75:利用所述评估标准mAP评价所述训练后模型的精确度。
6.根据权利要求5所述的一种基于海洋环境因子融合和深度学习的渔情预测方法,其特征在于,所述S74步骤中,分别计算所述高产区、所述低产区和全部区域所对应的所述计算评估标准mAP;所述S75步骤中,根据所述高产区、所述低产区和全部区域所对应的所述评估标准mAP对所述训练后模型的精确度进行评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204182.7A CN109902761B (zh) | 2019-03-18 | 2019-03-18 | 一种基于海洋环境因子融合和深度学习的渔情预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204182.7A CN109902761B (zh) | 2019-03-18 | 2019-03-18 | 一种基于海洋环境因子融合和深度学习的渔情预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109902761A CN109902761A (zh) | 2019-06-18 |
CN109902761B true CN109902761B (zh) | 2020-11-10 |
Family
ID=66953787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910204182.7A Active CN109902761B (zh) | 2019-03-18 | 2019-03-18 | 一种基于海洋环境因子融合和深度学习的渔情预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109902761B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807777B (zh) * | 2019-10-08 | 2023-02-14 | 哈尔滨工程大学 | 一种基于卷积神经网络的海洋哺乳动物图像分割方法 |
US11793185B2 (en) * | 2020-01-29 | 2023-10-24 | Charles Christopher Gierke | Real-time fish movement and location guide |
CN111523612B (zh) * | 2020-05-07 | 2022-06-10 | 桂林电子科技大学 | 一种深海鱼类图像分类识别方法 |
CN111784034B (zh) * | 2020-06-22 | 2024-06-11 | 上海海洋大学 | 一种影响智利海域美洲赤鱿渔场的关键环境因子的筛选及探测方法 |
CN112330029A (zh) * | 2020-11-08 | 2021-02-05 | 上海海洋大学 | 一种基于多层convLSTM的渔场预测计算方法 |
CN113836815A (zh) * | 2021-09-30 | 2021-12-24 | 上海海洋大学 | 基于极限学习机的渔情预测方法 |
CN114004428B (zh) * | 2022-01-04 | 2022-04-22 | 中科曙光南京研究院有限公司 | 一种基于蜂窝网格集成机制与时空Transformer的渔情预测方法及系统 |
CN114994042B (zh) * | 2022-06-09 | 2024-07-05 | 中国海洋大学 | 一种基于深度残差神经网络的海表面叶绿素a浓度遥感反演方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157162A (zh) * | 2016-07-22 | 2016-11-23 | 上海海洋大学 | 一种北太平洋鱿鱼中心渔场预测方法 |
CN107944590A (zh) * | 2016-10-13 | 2018-04-20 | 阿里巴巴集团控股有限公司 | 一种渔情分析预报的方法及设备 |
CN108665104A (zh) * | 2018-05-14 | 2018-10-16 | 华际卫星通信有限公司 | 一种基于lstm的渔场预报方法 |
CN109165766A (zh) * | 2018-06-26 | 2019-01-08 | 中国水产科学研究院南海水产研究所 | 一种南海鸢乌贼渔情预报的方法 |
-
2019
- 2019-03-18 CN CN201910204182.7A patent/CN109902761B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157162A (zh) * | 2016-07-22 | 2016-11-23 | 上海海洋大学 | 一种北太平洋鱿鱼中心渔场预测方法 |
CN107944590A (zh) * | 2016-10-13 | 2018-04-20 | 阿里巴巴集团控股有限公司 | 一种渔情分析预报的方法及设备 |
CN108665104A (zh) * | 2018-05-14 | 2018-10-16 | 华际卫星通信有限公司 | 一种基于lstm的渔场预报方法 |
CN109165766A (zh) * | 2018-06-26 | 2019-01-08 | 中国水产科学研究院南海水产研究所 | 一种南海鸢乌贼渔情预报的方法 |
Non-Patent Citations (1)
Title |
---|
南太平洋长鳍金枪鱼栖息地指数模型的比较研究;马孟磊等;《广东海洋大学学报》;20170615;第37卷(第3期);第59-66页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109902761A (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902761B (zh) | 一种基于海洋环境因子融合和深度学习的渔情预测方法 | |
CN113537106B (zh) | 一种基于YOLOv5的鱼类摄食行为识别方法 | |
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN108960245B (zh) | 轮胎模具字符的检测与识别方法、装置、设备及存储介质 | |
CN109460753B (zh) | 一种检测水上漂浮物的方法 | |
CN109635634B (zh) | 一种基于随机线性插值的行人再识别数据增强方法 | |
CN111445488B (zh) | 一种弱监督学习自动识别和分割盐体的方法 | |
CN105825511A (zh) | 一种基于深度学习的图片背景清晰度检测方法 | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及系统 | |
CN114092697B (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN110307903B (zh) | 一种家禽特定部位无接触温度动态测量的方法 | |
CN110738132B (zh) | 一种具备判别性感知能力的目标检测质量盲评价方法 | |
CN114926511A (zh) | 一种基于自监督学习的高分辨率遥感影像变化检测方法 | |
CN116385466B (zh) | 一种基于边界框弱标注的图像中目标分割方法及系统 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
CN116486408A (zh) | 遥感图像跨域语义分割方法及装置 | |
CN113378642B (zh) | 一种对农村违法占地建筑物进行检测的方法 | |
CN111242134A (zh) | 一种基于特征自适应学习的遥感影像地物分割方法 | |
Wang et al. | Strawberry ripeness classification method in facility environment based on red color ratio of fruit rind | |
CN115775369A (zh) | 基于双流残差卷积神经网络的鱼类摄食强度评估方法 | |
CN114581729A (zh) | 一种基于弱监督学习的高分遥感不透水面提取方法 | |
CN115497006A (zh) | 基于动态混合策略的城区遥感图像变化深度监测方法及系统 | |
CN114494850A (zh) | 一种村庄无人居住院落智能识别方法及系统 | |
CN113808079A (zh) | 基于深度学习模型AGLNet的工业产品表面缺陷自适应检测方法 | |
Chen et al. | Improving fractional vegetation cover estimation with shadow effects using high dynamic range images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |