CN116385861A - 基于鱼体体色识别模型的鱼体体色识别方法和电子设备 - Google Patents
基于鱼体体色识别模型的鱼体体色识别方法和电子设备 Download PDFInfo
- Publication number
- CN116385861A CN116385861A CN202211625948.7A CN202211625948A CN116385861A CN 116385861 A CN116385861 A CN 116385861A CN 202211625948 A CN202211625948 A CN 202211625948A CN 116385861 A CN116385861 A CN 116385861A
- Authority
- CN
- China
- Prior art keywords
- fish body
- body color
- module
- image
- color recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000251468 Actinopterygii Species 0.000 title claims abstract description 414
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000004422 calculation algorithm Methods 0.000 claims description 50
- 238000012360 testing method Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 34
- 238000011176 pooling Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000009360 aquaculture Methods 0.000 description 3
- 244000144974 aquaculture Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013535 sea water Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- FPIPGXGPPPQFEQ-OVSJKPMPSA-N all-trans-retinol Chemical class OC\C=C(/C)\C=C\C=C(/C)\C=C\C1=C(C)CCCC1(C)C FPIPGXGPPPQFEQ-OVSJKPMPSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/05—Underwater scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于鱼体体色识别模型的鱼体体色识别方法和电子设备。该方法包括:构建鱼体体色数据集,鱼体体色数据集包括鱼体图像和对应的真值标签;建立初始鱼体体色识别模型,初始鱼体体色识别模型是基于YOLOv5s网络模型建立的;采用训练集对初始鱼体体色识别模型进行训练,训练时以训练集中的鱼体图像和真值标签作为输入,初始鱼体体色识别模型输出得到鱼体体色预测结果;根据损失函数得到鱼体体色预测结果与真值标签之间的误差,通过多次迭代,更新并优化初始鱼体体色识别模型的参数,以得到鱼体体色识别模型;基于鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。该方法对鱼体体色的识别准确率较高。
Description
技术领域
本发明涉及鱼体体色识别技术领域,尤其涉及一种基于鱼体体色识别模型的鱼体体色识别方法和电子设备。
背景技术
鱼体体色不仅可以反应鱼体的生理机能,也是决定其市场价值和经济价值的重要属性之一。东星斑属于鮨科石斑鱼,近年来因其鲜艳体色成为极具经济价值和观赏价值的代表性鱼种之一,体色直接影响到其价值和销量。东星斑体色的检测研究不仅有利于着色饲料的配比调整,能够节约养殖成本,而且有利于实现品质分级、估算养殖区域中东星斑的总体经济价值,因此检测东星斑体色对于水产养殖调节和经济收益评估都具有重要意义。
在工厂化的养殖车间中,光源是需要综合考量鱼类的生长特性以及生产养殖需求来调整的并不是持续稳定的;且海水对光线的折射和吸收作用也会产生较为严重的图像偏色问题。因此,鱼体体色识别需要在图像校准的基础上进行实现。
目前,对于图像颜色校准的方法主要有两类:基于图像恢复的方法和基于数据驱动的方法。基于图像恢复的方法是通过利用先验知识,将图像恢复到退化之前的效果。基于数据驱动的方法是选用采集或者增益后的数据集训练颜色校准网络模型,用以后续的颜色校准。基于数据驱动的方法能够较好地保证了颜色恒常性,但参数量繁多不易于搭载鱼体体色识别网络;基于图像恢复的方法能够易于搭载体色识别网络,但更着重于全局颜色校准,局部细节校准效果较差。
发明内容
本发明提供一种基于鱼体体色识别模型的鱼体体色识别方法和电子设备,用以解决现有技术中对鱼体体色识别准确率低的问题,实现一种对鱼体体色具有较高识别率的模型的建立方法,以对鱼体体色进行识别。
本发明提供一种基于鱼体体色识别模型的鱼体体色识别方法,包括:
构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签;
建立初始鱼体体色识别模型,所述初始鱼体体色模型是基于YOLOv5s网络模型建立的且具有基于方差灰度世界算法的图像校准功能;
采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果;
根据损失函数得到所述鱼体体色预测结果与所述真值标签之间的误差,通过多次迭代,更新并优化所述初始鱼体体色识别模型的参数,以得到鱼体体色识别模型;
基于所述鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。
根据本发明提供的一种基于鱼体体色识别模型的鱼体体色识别方法,所述建立初始鱼体体色识别模型,所述初始鱼体体色模型是基于YOLOv5s网络模型建立的,包括:
基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的数据处理模块,使得改进后的所述数据处理模块包括基于方差灰度世界算法的图像校准算法和数据增强算法;
基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的骨干网络部分,顺序连接的CBS模块、CBS模块、BottleneckCSP模块、CBS模块、BottleneckCSP模块、CBS模块、BottleneckCSP模块、CBS模块、C3TR模块和HSPP模块构成改进后的所述骨干网络;
基于所述YOLOv5 s网络模型,改进所述YOLOv5 s网络模型的颈网络部分,改进后的所述颈网络为依次连接的CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、concat模块、BottleneckCSP模块、CBS模块、concat模块和C3TR模块,且第2个所述BottleneckCSP模块与所述CBS模块连接的同时还与所述YOLOv5s网络模型的头网络的Detect1模块连接,第3个所述BottleneckCSP模块与所述CBS模块连接的同时还与所述头网络的Detect2模块连接,所述C3TR模块与所述头网络的Detect3模块连接;
依次顺序连接改进后的所述数据处理模块、改进后的所述骨干网络、改进后的所述颈网络和所述头网络,得到所述初始鱼体体色识别模型。
根据本发明提供的一种基于鱼体体色识别模型的鱼体体色识别方法,所述HSPP模块是基于空间金子塔池化模型(Spatial Pyramid Pooling,SPP)和更快金子塔池化模型(Faster Spatial Pyramid Pooling,SPPF)改进的池化模块,由CBMe、双尺寸的MaxPool、Concat和CBMe顺序连接组成。
根据本发明提供的一种基于鱼体体色识别模型的鱼体体色识别方法,所述采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果,包括:
从所述鱼体体色数据集中抽取鱼体图像及对应的真值标签作为训练集;
将所述鱼体图像和所述真值标签输入所述初始鱼体体色识别模型,通过所述图像校准算法对所述鱼体图像基于方差灰度世界算法进行图像校准;
通过所述数据增强模块对校准后的所述鱼体图像进行马赛克增强,以对校准后的所述鱼体图像进行扩增得到增益后鱼体图像集对应的真值标签;
通过改进后的所述骨干网络和改进后的所述颈网络对所述增益后鱼体图像进行特征提取获得特征信息;
基于所述特征信息,通过所述头网络输出所述增益后鱼体图像的鱼体体色预测结果。
根据本发明提供的一种基于鱼体体色识别模型的鱼体体色识别方法,所述构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签,包括:
拍摄水域中鱼体的视频数据;
对采集的所述视频数据进行截取,获得鱼体图像;
对所述鱼体图像进行人工标注,得到与所述鱼体图像对应的所述真值标签;
所述鱼体图像和所述鱼体图像对应的所述真值标签构成所述鱼体体色数据集。
根据本发明提供的一种基于鱼体体色识别模型的鱼体体色识别方法,还包括:
采用测试集对所述鱼体体色识别模型进行测试,所述测试集包括所述鱼体体色数据集抽取训练集后剩余的所述鱼体图像和对应的真值标签;
测试时以所述测试集中的所述鱼体图像和所述真值标签作为输入,输出得到鱼体体色测试结果,计算所述鱼体体色测试结果与所述测试集中对应的所述真值标签的交并比;
基于所述交并比,以精确率、召回率、第一平均精度和第二平均精度作为衡量指标判断所述鱼体体色识别模型的性能是否优于所述YOLOv5s网络模型的性能。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述基于鱼体体色识别模型的鱼体体色识别方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于鱼体体色识别模型的鱼体体色识别方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述基于鱼体体色识别模型的鱼体体色识别方法。
本发明提供的基于鱼体体色识别模型的鱼体体色识别方法和电子设备,通过基于YOLOv5s网络模型建立初始鱼体体色识别模型,使得初始鱼体体色识别模型具有基于方差灰度世界算法的图像校准功能,极大的提高了对图像的校准效果,从而进一步提高了基于初始鱼体体色识别模型训练得到的鱼体体色识别模型对鱼体体色的识别准确率,能够在不妨碍鱼体活动的情况下高效准确地对养殖环境中的多目标物体进行体色识别,为实现鱼类养殖中的养殖环节调整、评估经济效益提供支持。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于鱼体体色识别模型的鱼体体色识别方法的流程示意图之一;
图2是本发明提供的建立初始鱼体体色识别模型的方法的流程示意图;
图3是本发明提供的初始鱼体体色识别模型的结构示意图;
图4是本发明提供的HSPP模块的结构示意图;
图5是本发明提供的采用训练集对所述初始鱼体体色识别模型进行训练的方法的流程示意图;
图6是本发明提供的构建鱼体体色数据集的方法的流程示意图;
图7是本发明提供的基于鱼体体色识别模型的鱼体体色识别方法的流程示意图之二;
图8是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1-图7描述本发明的基于鱼体体色识别模型的鱼体体色识别方法,包括:
S101:构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签。
示例性的,构建鱼体体色数据集,鱼体体色数据集中包括多张鱼体图像和与各鱼体图像对应的真值标签。鱼体图像对应的真值标签是人工进行标注的,具体的可以采用makesense.ai在线标注软件对鱼体图像中的鱼体体色进行标注。
S102:建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的且具有基于方差灰度世界算法的图像校准功能。
具体的,基于YOLOv5s网络模型建立初始鱼体体色识别模型,YOLOv5网络模型是基于YOLOv3网络模型基础上改进而来的,有YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x四个模型。YOLOv5s网络模型由数据处理模块、骨干网络、颈网络和头网络组成,YOLOv5s网络模型提供的是一种端到端的目标检测方法,它将目标检测问题转化为回归问题,通过单个卷积神经网络处理图像可直接识别出目标及其位置。
该初始鱼体体色识别模型具有基于方差灰度世界算法的图像校准功能,该功能集成于输入网络部分。
S103:采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果。
具体的,从鱼体体色数据集中抽取的鱼体图像及对应的真值标签作为训练集,示例性的,可以将鱼体体色数据集中的鱼体图像以及对应的真值标签以8:2的比例进行划分分组,划分后将80%比例的鱼体图像和对应的标签作为训练集,将剩余的鱼体图像和对应的真值标签作为测试集。
示例性的,在将训练集中的鱼体图像输入初始鱼体体色识别模型前,可以将鱼体图像缩放至640×640再进行输入。
S104:根据损失函数得到所述鱼体体色预测结果与所述真值标签之间的误差,通过多次迭代,更新并优化所述初始鱼体体色识别模型的参数,以得到鱼体体色识别模型。
具体的,鱼体图像对应的真值标签与鱼体图像对应的鱼体体色预测结果之间可能具有一定的误差,对初始初始鱼体体色识别模型进行训练的目的就是为了尽可能的使得鱼体图像对应的鱼体体色预测结果无限接近真值标签。通过损失函数能够得到鱼体体色预测结果与真值标签之间的误差,通过多次迭代来更新、优化初始鱼体体色识别模型的参数,以使得模型收敛,得到鱼体体色预测结果能够尽可能接近真值标签的鱼体体色识别模型。
初始鱼体体色识别模型训练中使用的损失函数Loss包括边界框定位损失(LCIoU)、置信度损失(Lconfidence)和类别损失(Lclass):
Loss=LCIoU+Lconfidence+Lclass
S105:基于所述鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。
上述步骤得到的鱼体体色识别模型可以直接用于对鱼体体色进行高效率和高准确率的识别,采用该鱼体体色识别模型可以对任意目标区域内的任意目标鱼体的体色进行识别。
本发明提供的基于鱼体体色识别模型的鱼体体色识别方法,通过基于YOLOv5s网络模型建立初始鱼体体色识别模型,使得初始鱼体体色识别模型具有基于方差灰度世界算法的图像校准功能,极大的提高了对图像的校准效果,从而进一步提高了基于初始鱼体体色识别模型训练得到的鱼体体色识别模型对鱼体体色的识别准确率,能够在不妨碍鱼体活动的情况下高效准确地对养殖环境中的多目标物体进行体色识别,为实现鱼类养殖中的养殖环节调整、评估经济效益提供支持。
在一个实施例中,参考图2中所示,所述建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的,包括:
S201:基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的数据处理模块,使得改进后的所述数据处理模块包括基于方差灰度世界算法的图像校准算法和数据增强算法。
具体的,YOLOv5s网络模型由数据处理模块、骨干网络、颈网络和头网络组成。参开图3中所示,基于所述YOLOv5s网络模型,在YOLOv5s网络模型的数据处理模块增加基于方差灰度世界算法的图像校准算法,结合YOLOv5s网络模型中的数据处理模块本身具有的数据增强算法,使得改进后的数据处理模块包括图像校准算法和数据增强算法,参考图3中所示,虚线框中为改进后的数据处理模块(Input)的结构示意图。
由于鱼体体色类别样本的不均衡会影响训练后获得的鱼体体色识别模型对鱼体体色的识别精度,因此通过数据增强算法,如马赛克增强算法对鱼体图像进行数据增强。马赛克增强算法通过将多张图像进行拼接、缩放以及随机裁剪之后合成新图像,实现了对有限鱼体图像的扩增,能够在一定程度上缓解样本类别不均衡问题,借助于马赛克增强算法增加了多类别鱼体图像后能够提高训练后获得的鱼体体色识别模型的鲁棒性。
进一步的,在较为封闭的水产养殖环境中,车间光线主要由灯柱等外部光源提供。但外部光源并不是持续稳定提供的,会根据鱼体对光源的需求以及生产养殖需求进行改变;同时,海水对光线还具有吸收、折射等作用,从而使得采集到的图像存在颜色失真以及偏色等问题。为了解决上述问题,在所述YOLOv5s网络模型的数据处理模块部分增加基于方差灰度世界算法的图像校准算法。方差灰度世界算法是基于灰度世界算法,考虑图像颜色空间通道方差,优化各通道均值权重提出的。
灰度世界算法中,首先假设鱼体图像中的R、G、B三个颜色通道像素均值趋于同一个灰度值K′,接着利用灰度值K′和通道像素均值去获取三通道的通道调整系数,最后依据通道调整系数去校准图像中的像素值,从而实现整个图像的颜色校准。
灰度世界算法的灰度值K′为:
K′=(Ravg+Gavg+Bavg)/3
其中,K′表示灰度世界算法的灰度值,Ravg、Gavg、Bavg分别为图像R、G、B三通道的像素均值。
但是,在偏色以及颜色失真的图像中,R、G、B三通道是存在较大差异性的,仅采用通道均值单因子作为校准因子,会存在通道补偿不足以及校准不完备等问题。方差灰度世界算法利用方差、均值两个因子作为校准参数,综合图像的偏色以及颜色失真情况分析灰度值K的取值。
方差灰度世界算法的灰度值K为下式所示:
K=(Cr*Ravg+Cg*Gavg+Cb*Bavg)/3
其中,K表示方差灰度世界算法的灰度值,Cr、Cg、Cb分别为Rαvg、Cgvg、Bavg三通道像素均值的权重系数。
由于水对光线的吸收作用,采集的图像会出现R、G、B的通道色彩不均衡问题,如图像可能会偏蓝或者偏绿。
故上式中的Cr、Cg、Cb分为以下三种情况设置权重。
第一种情况下,当图像呈现偏蓝色时,即Bavg>max(Gavg,Ravg)时,Ravg、Gavg、Bavg三通道均值的权重系数为:
其中,Rvar、Gvar、Bvar分别为图像R、G、B三通道像素值的方差。
第二种情况下,当图像呈现偏绿色时,即Gavg>max(Ravg,Bavg)时,Ravg、Gavg、Bavg三通道均值的权重系数为:
其中,Rvar、Gvar、Bvar分别为图像R、G、B三通道像素值的方差。
第三种情况下,当不存在G、B通道颜色突出时,方差灰度世界算法就是灰度世界算法,Ravg、Gavg、Bavg三通道均值的权重系数为:
Cr=Cg=Cb=1
综上,方差灰度世界算法的通道调整系数计算公式如下:
其中,Kr、Kg、Kb分别为图像R、G、B三通道的通道调整系数。
根据三通道的通道调整系数对鱼体图像三通道的像素值进行颜色校准:
其中,R、G、B为原始图像的三通道像素值,R′、G′、B′为颜色校准后的图像三通道像素值。
S202:基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的骨干网络部分,顺序连接的CBS模块、CBS模块、Bottlen eckCSP模块、CBS模块、Bottlen eckCSP模块、CBS模块、Bottlen eckCSP模块、CBS模块、C3TR模块和HSPP模块构成改进后的所述骨干网络。
具体的,参考图3中所示,方框部分为进行改进的部分,方框内的模块为改进后的模块。由图3可以看出顺序连接的CBS模块、CBS模块、Bottlen eckCSP模块、CBS模块、Bottlen eckCSP模块、CBS模块、Bottlen eckCSP模块、CBS模块、C3TR模块和HSPP模块构成改进后的骨干网络(Backbone)。
C3TR模块是由Transformer-Encoder改进实现的。Transformer是基于自注意力机制的来提高模型训练速度的Encoder-Decoder模型,不仅可以扩展鱼体体色识别模型对多个感兴趣区域的专注力,而且融合多个表示子空间(representation subspaces)的特征信息,有利于目标准确定位和感兴趣区域特征提取的实现。Encoder模块由多个相同的子层组成,每个子层都包括多头自注意机制(Multi-HeadAttention,MSA)和全连接前馈神经网络(Feed-Forword Network,FFN)。
多头自注意机制MSA基于自注意力机制首先将Query、Key、Value线性变化后映射到多个子空间,即scaled dot-Product attention,最终将多个子空间的特征信息进行拼接,得到最终的注意力特征信息。
除多头子注意机制之外,每一子层都包含一个全连接前馈神经网络FFN,全连接前馈神经网络由两个线性变换层和激活函数ReLU组成。
BottleneckCSP模块利用应用于深度网络的残差块,即Bottleneck,这减少了梯度分散的可能性,并在一定程度上保留了更多原始信息。然后,在Concat层之后添加卷积层、批归一化和激活函数,以增加网络的深度,以学习融合的特征信息。
S203:基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的颈网络部分,改进后的所述颈网络为依次连接的CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、concat模块、BottleneckCSP模块、CBS模块、concat模块和C3TR模块,且第2个所述BottleneckCSP模块与所述CBS模块连接的同时还与所述YOLOv5s网络模型的头网络的Detect1模块连接,第3个所述BottleneckCSP模块与所述CBS模块连接的同时还与所述头网络的Detect2模块连接,所述C3TR模块与所述头网络的Detect3模块连接。
具体的,参考图3中所示,改进YOLOv5s网络模型的颈网络部分,方框部分为进行改进的部分,方框内的模块为改进后的模块。由图3中可以看出,依次连接的CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、concat模块、BottleneckCSP模块、CBS模块、concat模块和C3TR模块为改进后的颈网络。
S204:依次顺序连接改进后的所述数据处理模块、改进后的所述骨干网络、改进后的所述颈网络和所述头网络,得到初始鱼体体色识别模型。
具体的,将改进后的输入网络、改进后的骨干网络、改进后的颈网络和头网络依次连接即得到初始鱼体体色识别模型,头网络即是YOLOv5s网络模型的头网络。
在一个实施例中,所述HSPP模块是基于空间金子塔池化模型(Spatial PyramidPooling,SPP)和更快金子塔池化模型(Faster Spatial Pyramid Pooling,SPPF)改进的池化模块,主要由CBMe、双尺寸的MaxPool、Concat和CBMe顺序连接组成。
具体的,参考图4中所示,HSPP是在SPP(Spatial Pyramid Pooling)和SPPF(Faster Spatial Pyramid Pooling)基础上改进的池化模块,主要由CBMe、双尺寸的MaxPool、Concat和CBMe四部分连接组成。HSPP模块从在减少池化尺寸的基础上,综合考虑了并联和级联结构,由以前的4个特征拼接,变为8部分的特征拼接。同时HSPP模块采用MetaAconC激活函数替换SiLU激活函数,自适应调节激活函数性能,在降低了参数量的同时增加了HSPP模块的鲁棒性和适用性。
不同于Acon系列的通过设置β值来切换激活函数的线性或非线性,MetaAconC激活函数是通过输入的x来动态的学习的βc值,以达到自适应控制激活函数线性或非线性能力,有利于提高HSPP模块的泛化能力和提升传递性能,激活函数如下:
MetaAconC=(P1-P2)x·σ(βc(P1-P2)x)+P2
其中,x是激活函数输入特征图,P1是x趋向于正无穷时的一阶导数,P1是x趋向于负无穷时的一阶导数,βc是激活函数性能系数,σ表示sigmoid激活函数。
本实施例采用通道空间来学习βc值:
其中,W1、W2表示输入输出通道权重,W表示激活函数输入特征图的宽度,H表示激活函数输入特征图的高度,c表示通道数,σ表示sigmoid激活函数。
在一个实施例中,所述采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果,包括:
S501:从所述鱼体体色数据集中抽取鱼体图像及对应的真值标签作为训练集。
具体的,从鱼体体色数据集中抽取鱼体图像及对应的真值标签作为训练集,示例性的,可以将鱼体体色数据集中的鱼体图像以及对应的真值标签以8:2的比例进行划分分组,划分后将鱼体图像和对应的真值标签多的组作为训练集。
S502:将所述鱼体图像和所述真值标签输入所述初始鱼体体色识别模型,通过所述图像校准算法对所述鱼体图像基于方差灰度世界算法进行图像校准。
具体的,图像校准算法对增以后鱼体图像基于方差灰度世界算法进行校准,基于方差灰度世界算法考虑了鱼体图像不同偏色情况下不同的校准算法,最终得到校准后的图像数据,能够提高鱼体体色识别模型的识别精度。
S503:通过所述数据增强模块对校准后的所述鱼体图像进行马赛克增强,以对校准后的所述鱼体图像进行扩增得到增益后鱼体图像及对应的真值标签。
具体的,输入时可以将鱼体图像缩放至640×640输入初始鱼体体色识别模型,数据增强模块对鱼体图像进行马赛克增强得到增以后鱼体图像和对应的真值标签。
S504:通过改进后的骨干网络和改进后的颈网络对所述增益后鱼体图像进行特征提取获得特征信息。
S505:基于所述特征信息,通过所述头网络输出所述增益后鱼体图像的鱼体体色预测结果。
具体的,头网络输出了鱼体体色预测结果,该鱼体体色预测结果为在鱼体图像上识别出的目标及其目标的位置。
在一个实施例中,所述构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签,包括:
S601:拍摄水域中鱼体的视频数据。
示例性的,鱼体图像的获取方式可以为:首先在水产养殖基地搭建鱼体图像采集平台,采集鱼群俯视视频,获取鱼群视频数据。平台包括的件设备包括:摄像头,摄像头支架,摄像头内存卡,计算机等。摄像头例如可以是海康威视3T86FWDV2-I3S,800万像素,4mm焦距摄像头。摄像头内存卡与计算机通过网线联通,用于将采集到的鱼群视频数据导入到计算机中存储。采用摄像头支架将摄像头固定在养殖池正上方,距离水面约1.5m左右处,使摄像头俯视水面拍摄。
S602:对采集的所述视频数据进行截取,获得鱼体图像。
具体的,采集获得鱼群视频后,其次采用视频分帧技术在采集到的鱼群视频数据中截取视频帧并裁剪,获得鱼群俯视图。采集的鱼群俯视图为RGB(Red-Green-Blue)彩色图像,图像格式为jpg格式,图像分辨率为1200*800。最后,对鱼群俯视图进行随机裁剪,获得局部图像,该局部图像即为鱼体图像。
S603:对所述鱼体图像进行人工标注,得到与所述鱼体图像对应的所述真值标签。
具体的,最后对得到的鱼体图像进行人工标注得到真值标签,示例性的,可以采用makesense.ai在线标注软件对鱼体图像中的鱼体体色进行标注。
S604:所述鱼体图像和所述鱼体图像对应的所述真值标签构成所述鱼体体色数据集。
在一个实施例中,基于鱼体体色识别模型的鱼体体色识别方法还包括:
S701:采用测试集对所述鱼体体色识别模型进行测试,所述测试集包括所述鱼体体色数据集抽取所述训练集后剩余的所述鱼体图像和对应的真值标签。
具体的,从鱼体体色数据集中抽取鱼体图像及对应的真值标签作为测试集,示例性的,可以将鱼体体色数据集中的鱼体图像以及对应的真值标签以8:2的比例进行划分分组,划分后将鱼体图像和对应的真值标签少的组作为验证集。
S702:测试时以所述测试集中的所述鱼体图像和所述真值标签作为输入,输出得到鱼体体色测试结果,计算所述鱼体体色测试结果与所述测试集中对应的所述真值标签的交并比。
具体的,交并比为鱼体体色测试信息中鱼体体色所属的鱼所在位置区域与真值标签中标注的该鱼的位置区域的重合情况。当不重合或者重合度较低时说明该鱼体体色识别模型的识别性能较差。
S703:基于所述交并比,以精确率、召回率、第一平均精度和第二平均精度作为衡量指标判断所述鱼体体色识别模型的性能是否优于所述YOLOv5s网络模型的性能。
具体的,以测试集输入鱼体体色识别模型得到的输出与标注的真值标签的交并比(阈值大于0.5)作为鱼体体色识别模型的测试结果。交并比阈值大于0.5指的是,鱼体体色测试信息中鱼体体色所属的鱼所在位置区域与真值标签中标注的该鱼的位置区域的重合区域大于该鱼所在位置区域的0.5。
选用精确率(Precision)、召回率(Recall)、第一平均精度(mAP@0.5)和第二平均精度(mAP@0.5:0.95)作为衡量指标判别鱼体体色识别模型的识别效果。第一平均精度是指代交并比的阈值为0.5,第二平均精度指代交并比阈值分别取0.5/0.55/0.6/0.65/0.7/…/0.9/0.95时对应不同的平均精度值再取平均得到的数值。
具体公式如下所示:
其中,TP表示实际为正、测试结果也为正的样本数,FP表示实际为负、但测试结果为正的样本数,FN表示实际为正、但测试结果为负的样本数。示例性的,TP表示实际为正、预测也为正的样本数,例如针对于红色类别来说,TP表示是真值标签为红色,测试结果也是红色的样本数,FP表示是真值标签为非红色,测试结果是红色的样本数,FN表示是真值标签为红色,测试结果是非红色的样本数。
针对每个颜色类别分别需要通过上述指标来判别鱼体体色识别模型的识别效果。
上述精确率(Precision)、召回率(Recall)是基于mAP@0.5计算得到的,mAP@0.5和mAP@0.5:0.95的计算公式如下:
其中,mAP@0.5是指交并比阈值(IoU)设置为0.5时所有类别的平均AP,mAP@0.5:0.95是指不同交并比阈值(IoU)下的平均mAP,交并比阈值(IoU)范围从0.5到0.95,步长为0.05;P就是精确率(Precision),R就是召回率(Recall)。
对上述实施例获得的鱼体体色识别模型的性能进行判别,判别后发现该鱼体体色识别模型较YOLOv5s网络模型的识别准确率更高,用于进行鱼体体色识别的效果更好。
本发明提供的基于鱼体体色识别模型的鱼体体色识别方法,通过基于YOLOv5s网络模型建立初始鱼体体色识别模型,且使得初始鱼体体色识别模型具有基于方差灰度世界算法的图像校准功能,极大的提高了对图像的校准效果,从而进一步提高了基于初始鱼体体色识别模型训练得到的鱼体体色识别模型对鱼体体色的识别准确率,能够在不妨碍鱼体活动的情况下高效准确地对养殖环境中的多目标物体进行体色识别,为实现鱼类养殖中的养殖环节调整、评估经济效益提供支持。
图8示例了一种电子设备的实体结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行基于鱼体体色识别模型的鱼体体色识别方法,该方法包括:构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签;建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的且具有基于方差灰度世界算法的图像校准功能;采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果;根据损失函数得到所述鱼体体色预测结果与所述真值标签之间的误差,通过多次迭代,更新并优化所述初始鱼体体色识别模型的参数,以得到鱼体体色识别模型;基于所述鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的基于鱼体体色识别模型的鱼体体色识别方法,该方法包括:构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签;建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的且具有基于方差灰度世界算法的图像校准功能;采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果;根据损失函数得到所述鱼体体色预测结果与所述真值标签之间的误差,通过多次迭代,更新并优化所述初始鱼体体色识别模型的参数,以得到鱼体体色识别模型;基于所述鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的基于鱼体体色识别模型的鱼体体色识别方法,该方法包括:构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签;建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的且具有基于方差灰度世界算法的图像校准功能;采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果;根据损失函数得到所述鱼体体色预测结果与所述真值标签之间的误差,通过多次迭代,更新并优化所述初始鱼体体色识别模型的参数,以得到鱼体体色识别模型;基于所述鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种基于鱼体体色识别模型的鱼体体色识别方法,其特征在于,包括:
构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签;
建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的且具有基于方差灰度世界算法的图像校准功能;
采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果;
根据损失函数得到所述鱼体体色预测结果与所述真值标签之间的误差,通过多次迭代,更新并优化所述初始鱼体体色识别模型的参数,以得到鱼体体色识别模型;
基于所述鱼体体色识别模型,对目标区域内的目标鱼体进行体色识别。
2.根据权利要求1所述的基于鱼体体色识别模型的鱼体体色识别方法,其特征在于,所述建立初始鱼体体色识别模型,所述初始鱼体体色识别模型是基于YOLOv5s网络模型建立的,包括:
基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的数据处理模块,使得改进后的所述数据处理模块包括基于方差灰度世界算法的图像校准算法和数据增强算法;
基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的骨干网络部分,顺序连接的CBS模块、CBS模块、BottleneckCSP模块、CBS模块、BottleneckCSP模块、CBS模块、BottleneckCSP模块、CBS模块、C3TR模块和HSPP模块构成改进后的所述骨干网络;
基于所述YOLOv5s网络模型,改进所述YOLOv5s网络模型的颈网络部分,改进后的所述颈网络为依次连接的CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、Upsampling2d模块、concat模块、BottleneckCSP模块、CBS模块、concat模块、BottleneckCSP模块、CBS模块、concat模块和C3TR模块,且第2个所述BottleneckCSP模块与所述CBS模块连接的同时还与所述YOLOv5s网络模型的头网络的Detect1模块连接,第3个所述BottleneckCSP模块与所述CBS模块连接的同时还与所述头网络的Detect2模块连接,所述C3TR模块与所述头网络的Detect3模块连接;
依次顺序连接改进后的所述数据处理模块、改进后的所述骨干网络、改进后的所述颈网络和所述头网络,得到所述初始鱼体体色识别模型。
3.根据权利要求2所述的基于鱼体体色识别模型的鱼体体色识别方法,其特征在于,所述HSPP模块是基于空间金子塔池化模型和更快金子塔池化模型改进的池化模块,由CBMe、双尺寸的MaxPool、Concat和CBMe顺序连接组成。
4.根据权利要求2所述的基于鱼体体色识别模型的鱼体体色识别方法,其特征在于,所述采用训练集对所述初始鱼体体色识别模型进行训练,所述训练集包括从所述鱼体体色数据集中抽取的鱼体图像及对应的真值标签,训练时以所述训练集中的所述鱼体图像和所述真值标签作为输入,所述初始鱼体体色识别模型输出得到鱼体体色预测结果,包括:
从所述鱼体体色数据集中抽取鱼体图像及对应的真值标签作为训练集;
将所述鱼体图像和所述真值标签输入所述初始鱼体体色识别模型,通过所述图像校准算法对所述鱼体图像基于方差灰度世界算法进行图像校准;
通过所述数据增强模块对校准后的所述鱼体图像进行马赛克增强,以对校准后的所述鱼体图像进行扩增得到增益后鱼体图像及对应的真值标签;
通过改进后的所述骨干网络和改进后的所述颈网络对所述增益后鱼体图像进行特征提取获得特征信息;
基于所述特征信息,通过所述头网络输出所述增益后鱼体图像的鱼体体色预测结果。
5.根据权利要求1至4任一项所述的基于鱼体体色识别模型的鱼体体色识别方法,其特征在于,所述构建鱼体体色数据集,所述鱼体体色数据集包括鱼体图像和所述鱼体图像对应的真值标签,包括:
拍摄水域中鱼体的视频数据;
对采集的所述视频数据进行截取,获得鱼体图像;
对所述鱼体图像进行人工标注,得到与所述鱼体图像对应的所述真值标签;
所述鱼体图像和所述鱼体图像对应的所述真值标签构成所述鱼体体色数据集。
6.根据权利要求5所述的基于鱼体体色识别模型的鱼体体色识别方法,其特征在于,还包括:
采用测试集对所述鱼体体色识别模型进行测试,所述测试集包括所述鱼体体色数据集抽取所述训练集后剩余的所述鱼体图像和对应的真值标签;
测试时以所述测试集中的所述鱼体图像和所述真值标签作为输入,输出得到鱼体体色测试结果,计算所述鱼体体色测试结果与所述测试集中对应的所述真值标签的交并比;
基于所述交并比,以精确率、召回率、第一平均精度和第二平均精度作为衡量指标判断所述鱼体体色识别模型的性能是否优于所述YOLOv5s网络模型的性能。
7.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述基于鱼体体色识别模型的鱼体体色识别方法。
8.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于鱼体体色识别模型的鱼体体色识别方法。
9.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于鱼体体色识别模型的鱼体体色识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211625948.7A CN116385861A (zh) | 2022-12-14 | 2022-12-14 | 基于鱼体体色识别模型的鱼体体色识别方法和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211625948.7A CN116385861A (zh) | 2022-12-14 | 2022-12-14 | 基于鱼体体色识别模型的鱼体体色识别方法和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116385861A true CN116385861A (zh) | 2023-07-04 |
Family
ID=86975656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211625948.7A Pending CN116385861A (zh) | 2022-12-14 | 2022-12-14 | 基于鱼体体色识别模型的鱼体体色识别方法和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116385861A (zh) |
-
2022
- 2022-12-14 CN CN202211625948.7A patent/CN116385861A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN110555399B (zh) | 手指静脉识别方法、装置、计算机设备及可读存储介质 | |
CN110059586B (zh) | 一种基于空洞残差注意力结构的虹膜定位分割系统 | |
CN111340141A (zh) | 一种基于深度学习的作物幼苗与杂草检测方法及系统 | |
CN110991511A (zh) | 一种基于深度卷积神经网络的向日葵作物种子分拣方法 | |
CN111489401B (zh) | 一种图像颜色恒常性处理方法、系统、设备和存储介质 | |
CN110427933A (zh) | 一种基于深度学习的水尺识别方法 | |
CN107220643A (zh) | 基于紧凑型神经网络的深度学习模型的交通标志识别系统 | |
CN114241340A (zh) | 一种基于双路深度残差网络的图像目标检测方法及系统 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN113743417B (zh) | 语义分割方法和语义分割装置 | |
CN111598167B (zh) | 基于图学习的小样本图像识别方法及系统 | |
CN111178177A (zh) | 一种基于卷积神经网络的黄瓜病害识别方法 | |
CN113762264A (zh) | 一种多编码器融合的多光谱图像语义分割方法 | |
CN116912674A (zh) | 基于改进的YOLOv5s网络模型复杂水环境下目标检测方法及系统 | |
CN113705340A (zh) | 一种基于雷达遥感数据的深度学习变化检测方法 | |
CN112270404A (zh) | 一种基于ResNet64网络的紧固件产品鼓包缺陷的检测结构及其方法 | |
CN116740567A (zh) | 用于泡桐幼苗栽培的土壤含水率检测方法及系统 | |
CN114820395B (zh) | 一种基于多领域信息融合的水下图像增强方法 | |
CN111401453A (zh) | 一种马赛克图像分类识别方法及系统 | |
CN116385861A (zh) | 基于鱼体体色识别模型的鱼体体色识别方法和电子设备 | |
CN110796716A (zh) | 一种基于多重残差网络和正则化迁移学习的图像着色方法 | |
CN115909332A (zh) | 一种基于通道特征加强的农业遥感图像语义分割方法 | |
CN115578624A (zh) | 农业病虫害模型构建方法、检测方法及装置 | |
CN115439738A (zh) | 一种基于自监督协同重构的水下目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |