CN116385826A - 一种基于深度学习的中华绒螯蟹品系识别方法 - Google Patents
一种基于深度学习的中华绒螯蟹品系识别方法 Download PDFInfo
- Publication number
- CN116385826A CN116385826A CN202310305147.0A CN202310305147A CN116385826A CN 116385826 A CN116385826 A CN 116385826A CN 202310305147 A CN202310305147 A CN 202310305147A CN 116385826 A CN116385826 A CN 116385826A
- Authority
- CN
- China
- Prior art keywords
- loss
- frame
- deep learning
- prediction
- eriocheir sinensis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 241000371997 Eriocheir sinensis Species 0.000 title claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000002372 labelling Methods 0.000 claims abstract description 7
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 241000238557 Decapoda Species 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000000903 blocking effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009395 breeding Methods 0.000 description 2
- 230000001488 breeding effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 241000213006 Angelica dahurica Species 0.000 description 1
- 101100322030 Drosophila melanogaster Abl gene Proteins 0.000 description 1
- 241000733943 Hapalogaster mertensii Species 0.000 description 1
- 150000001413 amino acids Chemical class 0.000 description 1
- 244000144974 aquaculture Species 0.000 description 1
- 238000002306 biochemical method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 235000014113 dietary fatty acids Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 229930195729 fatty acid Natural products 0.000 description 1
- 239000000194 fatty acid Substances 0.000 description 1
- 150000004665 fatty acids Chemical class 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000002366 mineral element Substances 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000029553 photosynthesis Effects 0.000 description 1
- 238000010672 photosynthesis Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
Abstract
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的中华绒螯蟹品系识别方法,通过使用多个品系的河蟹图片生成训练数据集,对包含CSPNet的主干网络进行训练,分尺度对提取到的特征向量进行特征融合,再通过预测层进行预测操作,将预测结果与标注数据进行比对,根据损失函数计算损失值,反复迭代,反向传播,优化损失值,获得训练好的模型,最后使用训练后的模型进行河蟹品系的预测,实现河蟹品系检测自动化,进一步的,如检测失败再结合人工进行特别处理,也可以对检测用模型再次优化。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的中华绒螯蟹品系识别方法。
背景技术
中华绒螯蟹(Eriocheir sinensis)又被称为大闸蟹、河蟹,在中国是一种重要的水产养殖物种。由于其具有独特的风味,富含多种人体所需的矿物元素、脂肪酸、氨基酸等多类营养物质,深受人们的喜爱,从而具有重要的经济意义。近年来,河蟹的养殖规模逐渐扩大,其中长江流域的江苏、安徽、湖北三省的产量达到了全国的80%左右,是我国优质水产品种。
随着20世纪80年代初期河蟹人工繁育技术突破以后,我国河蟹的人工养殖就迅速地发展起来。在高速发展的同时,河蟹苗种产业出现种源混乱、种质退化、苗种质量不稳定、成蟹个体小、早熟比例增加、优质良种的覆盖偏低等问题,且外壳特征相似程度较高,不是专业人员很难区分蟹的品系。给培育优良品种的河蟹带来了困扰,严重影响着河蟹产业的发展。但是,传统的DNA识别方法太过复杂,检测环境苛刻,时间成本太高。
发明内容
本发明的目的在于提供一种基于深度学习的中华绒螯蟹品系识别方法,解决河蟹养殖人员无法快速识别河蟹品系的问题,引入深度学习和计算机视觉技术进行识别,方便养殖人员挑选出所需的品系。
为实现上述目的,本发明提供了一种基于深度学习的中华绒螯蟹品系识别方法,包括下列步骤:
步骤1:拍摄各个品系的河蟹图片;
步骤2:使用labelme手工标注拍摄的图片,生成训练数据集;
步骤3:对训练集进行Mosaic数据增强,获得增强后的数据集,并计算自适应锚框;
步骤4:将增强后的数据集送入改进后的主干网络中进行特征提取;
步骤5:将步骤4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
步骤6:将步骤5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果;
步骤7:将预测结果与标注数据进行比对,根据损失函数计算损失值;
步骤8:迭代优化后获得训练好的模型;
步骤9:使用步骤8中得到的模型进行河蟹品系的预测;
步骤10:如果步骤9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
可选的,在使用labelme手工标注拍摄的图片的过程中,使用labelme框选出图片中蟹壳所在位置,并标记成对应类别。
可选的,所述改进后的主干网络包括transform模块、CSPNet网络和Mish激活函数,所述transform模块关注全局并建模全局间的像素关系;所述CSPNet网络将输入的向量拆成两个部分再进行融合,通过分块操作来降低计算量;所述Mish激活函数用来缓解模型不收敛的情况。
可选的,所述改进后的颈部网络采用FPN+PAN的结构,FPN是自顶向下,将高层的强语义特征传递下来,对整个金字塔进行增强,PAN则是一个自底向上的金字塔,对FPN进行补充,将低层的强定位特征传递上去。
可选的,在所述预测层进行的为普通的卷积操作,最终获得一个一维向量,一维向量包括预测框中心点、预测框框高以及置信度信息。
可选的,所述损失函数包括分类损失、定位损失和置信度损失三个部分,所述损失函数的表达式为
可选的,所述定位损失用来衡量预测框与真实框的误差情况,在定位损失过程中采用CIoU Loss,CIoU Loss考虑了预测框与真实框的宽高比信息、真实框与预测框的IoU值以及真实框与预测框二者中心点的距离。
可选的,分类损失与置信度损失采用的二元交叉熵损失函数,根据预测框的类别得分与真实框的类别得分二者来进行计算。
可选的,在迭代优化后获得训练好的模型的过程中,迭代轮数为300轮,batch-size设为6,使用cache images,优化器使用SGD。
本发明提供了一种基于深度学习的中华绒螯蟹品系识别方法,通过使用多个品系的河蟹图片生成训练数据集,对包含CSPNet的主干网络进行训练,分尺度对提取到的特征向量进行特征融合,再通过预测层进行预测操作,将预测结果与标注数据进行比对,根据损失函数计算损失值,反复迭代,反向传播,优化损失值,获得训练好的模型,最后使用训练后的模型进行河蟹品系的预测,实现河蟹品系检测自动化,进一步的,如检测失败再结合人工进行特别处理,也可以对检测用模型再次优化。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的整体流程示意图。
图2是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的训练流程示意图。
图3是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的检测流程示意图。
图4是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的整体网络结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明提供了一种基于深度学习的中华绒螯蟹品系识别方法,包括下列步骤:
S1:拍摄各个品系的河蟹图片;
S2:使用labelme手工标注拍摄的图片,生成训练数据集;
S3:对训练集进行Mosaic数据增强,获得增强后的数据集,并计算自适应锚框;
S4:将增强后的数据集送入改进后的主干网络中进行特征提取;
S5:将步骤S4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
S6:将步骤S5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果;
S7:将预测结果与标注数据进行比对,根据损失函数计算损失值;
S8:迭代优化后获得训练好的模型;
S9:使用步骤S8中得到的模型进行河蟹品系的预测;
S10:如果步骤S9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
本发明的一种基于深度学习的中华绒螯蟹品系识别方法,具体包括训练和检测两个过程,其中步骤S1至步骤S8为训练过程,具体如图2所示,步骤S9为检测过程,请参阅图3。
进一步的,以下通过具体实施例和实施步骤对本发明作进一步说明:
步骤S1、拍摄各个品系的河蟹图片。
其中“长江1号”3276张,“长江2号”3800张,“光合1号”3826张,“诺亚1号”3711张,共计14613张河蟹图片。
步骤S2、使用labelme手工标注拍摄的图片,生成训练数据集。
使用labelme框选出图片中蟹壳所在位置,并标记成对应类别。
步骤S3、对训练集进行数据增强,得到更加丰富的数据集,并计算自适应锚框。
数据增强方法1是通过随机选取4张图片,将这四张图片通过随机缩放、随机裁减、随机排布的方式进行拼接,得到新的图片。方法2是对原始图片进行翻转、旋转、调整对比度亮度等操作获取新的图片,大大丰富了检测数据集,让深度学习网络的鲁棒性更好。
步骤S4、将增强后的数据集送入改进后的主干网络中进行特征提取;
如图4所示,本方法的主干网络基于CSPDarknet53网络进行改进。
CSPDarknet53网络主要由CBS、CSPNet等模块组成。CBS是卷积(conv)、归一化(Batch Normalization)和SiLU激活函数的简写,CSPNet通过将梯度的变化从头到尾地集成到特征图中,在减少了计算量的同时可以保证准确率。CSPNet的核心思想是,将输入的向量拆成两个部分,一部分进行卷积操作,另一部分和上一部分卷积操作的结果进行融合最终得到一个特征向量,通过分块操作来降低计算量,并保持性能。SiLU激活函数,则是用来缓解模型不收敛的情况。
然而CSPDarknet53网络主要是用到了传统的卷积操作,然而卷积操作通常只会建模局部间的像素关系,Swin Transformer模块则会关注于全局,能够建模全局间的像素关系。为了给原始的主干网络带来这种全局的建模能力,提高模型主干网络的特征提取能力,本方法将CSPDarknet53网络中,靠后的二个CSP模块修改为Swin Transformer模块。模块的核心思想是运用了基于移动窗口的多头自注意机制,在一个个的小窗口里面计算自注意权重。改进后的主干网络极大的提升了对河蟹蟹壳的特征提取能力。
步骤S5、将步骤S4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
原始的颈部网络主要采用FPN(Feature Pyramid Networks)+PAN(PathAggregationNetwork)的结构。
首先经过FPN自顶向下,将高维度的语义特征通过上采样和低维度的位置特征进行特征融合,提升模型对目标的检测能力;其次通过PAN自底向上,将低维度的位置特征通过下采样和高维度的语义特征进行特征融合,提升模型的定位能力。然而这种结构缺少了对图像区域重要程度的划分信息。
为了进一步提升模型的检测能力,提升蟹壳在整体图像中的位置所占权重,让模型更加关注于蟹壳,并抑制与蟹壳无关的背景特征,本发明在YOLOv5s的大、中、小三个检测头之前,各添加了一个ShuffleAttention模块。目前,常见的注意力机制可分为空间注意力机制和通道注意力机制,同时使用二种注意力机制会有效提升模型的检测能力,与此同时无疑会增加计算量。SA注意力机制便通过分组计算的方式,在保证模型效果的同时,巧妙的降低了模型的计算量,SA的整体流程如下:首先将通道进行分组,其次并行的对每一组进行空间和通道注意力权重的计算,最后使用Channel Shuffle操作让各组的特征信息进行融合与交汇,高效的结合了空间与通道注意力机制,提高了模型的检测能力。
步骤S6、将步骤S5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果。
预测层是一个普通的卷积操作,最终得到一个一维向量,这个一维向量包括预测框中心点,预测框框高以及置信度信息。
步骤S7、将预测结果与标注数据进行比对,根据损失函数计算损失值。
损失函数由三个部分构成,分别为分类损失(cls_loss)、定位损失(box_loss)和置信度损失(obj_loss)。定位损失用来衡量预测框与真实框的误差情况,本方法采用的CIoU Loss,CIoU Loss考虑了预测框与真实框的宽高比信息、真实框与预测框的IoU值以及真实框与预测框二者中心点的距离。置信度损失则是根据预测框中的检测物置信度得分和预测框与目标框的iou(Intersection overUnion,交并比)值,二者计算二元交叉熵损失(Binary Cross Entropy Loss)得到最终的置信度损失。分类损失与置信度损失相同,同样采用的二元交叉熵损失函数,根据预测框的类别得分与真实框的类别得分二者来进行计算。
总的损失函数如式1所示。
边界框回归损失具体的公式如式2,3,4所示。
其中,b、bgt分别为预测框和真实框,wgt、hgt、w、h分别为真实框的宽高和预测框的宽高,p为预测框与真实框二者中心点的距离,α为权重系数。
目标损失与分类损失均采用二元交叉熵损失函数,其计算公式如(5)、(6)所示。
S8、反复迭代,反向传播,优化损失值,最终得到一个训练好的模型。
具体的迭代轮数为300轮,batch-size设为6,使用cache images,优化器使用SGD。
S9、使用步骤S8中得到的模型进行河蟹品系的预测。
S10、如果步骤S9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
实验表明,该模型预测河蟹品系的准确率高达93.6%,能够很好的识别出河蟹的品系,对比于传统的生化方法,本方法利用深度学习技术,有效的让模型网络学习到了河蟹蟹壳特征,避免了传统方法冗余复杂的步骤,大大的降低了河蟹养殖人员的鉴别成本与时间,具有一定的应用价值。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (9)
1.一种基于深度学习的中华绒螯蟹品系识别方法,其特征在于,包括下列步骤:
步骤1:拍摄各个品系的河蟹图片;
步骤2:使用labelme手工标注拍摄的图片,生成训练数据集;
步骤3:对训练集进行Mosaic数据增强,获得增强后的数据集,并计算自适应锚框;
步骤4:将增强后的数据集送入改进后的主干网络中进行特征提取;
步骤5:将步骤4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
步骤6:将步骤5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果;
步骤7:将预测结果与标注数据进行比对,根据损失函数计算损失值;
步骤8:迭代优化后获得训练好的模型;
步骤9:使用步骤8中得到的模型进行河蟹品系的预测;
步骤10:如果步骤9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
2.如权利要求1所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
在使用labelme手工标注拍摄的图片的过程中,使用labelme框选出图片中蟹壳所在位置,并标记成对应类别。
3.如权利要求1所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述改进后的主干网络包括transform模块、CSPNet网络和Mish激活函数,所述transform模块关注全局并建模全局间的像素关系;所述CSPNet网络将输入的向量拆成两个部分再进行融合,通过分块操作来降低计算量;所述Mish激活函数用来缓解模型不收敛的情况。
4.如权利要求3所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述改进后的颈部网络采用FPN+PAN的结构,FPN是自顶向下,将高层的强语义特征传递下来,对整个金字塔进行增强,PAN则是一个自底向上的金字塔,对FPN进行补充,将低层的强定位特征传递上去。
5.如权利要求4所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
在所述预测层进行的为普通的卷积操作,最终获得一个一维向量,一维向量包括预测框中心点、预测框框高以及置信度信息。
7.如权利要求6所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述定位损失用来衡量预测框与真实框的误差情况,在定位损失过程中采用CIoULoss,CIoU Loss考虑了预测框与真实框的宽高比信息、真实框与预测框的IoU值以及真实框与预测框二者中心点的距离。
8.如权利要求7所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
分类损失与置信度损失采用的二元交叉熵损失函数,根据预测框的类别得分与真实框的类别得分二者来进行计算。
9.如权利要求8所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
在迭代优化后获得训练好的模型的过程中,迭代轮数为300轮,batch-size设为6,使用cacheimages,优化器使用SGD。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310305147.0A CN116385826A (zh) | 2023-03-27 | 2023-03-27 | 一种基于深度学习的中华绒螯蟹品系识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310305147.0A CN116385826A (zh) | 2023-03-27 | 2023-03-27 | 一种基于深度学习的中华绒螯蟹品系识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116385826A true CN116385826A (zh) | 2023-07-04 |
Family
ID=86978062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310305147.0A Pending CN116385826A (zh) | 2023-03-27 | 2023-03-27 | 一种基于深度学习的中华绒螯蟹品系识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116385826A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117029673A (zh) * | 2023-07-12 | 2023-11-10 | 中国科学院水生生物研究所 | 一种基于人工智能实现的鱼类体表多尺寸测量方法 |
-
2023
- 2023-03-27 CN CN202310305147.0A patent/CN116385826A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117029673A (zh) * | 2023-07-12 | 2023-11-10 | 中国科学院水生生物研究所 | 一种基于人工智能实现的鱼类体表多尺寸测量方法 |
CN117029673B (zh) * | 2023-07-12 | 2024-05-10 | 中国科学院水生生物研究所 | 一种基于人工智能实现的鱼类体表多尺寸测量方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Parmar et al. | What and how well you performed? a multitask learning approach to action quality assessment | |
CN110516536B (zh) | 一种基于时序类别激活图互补的弱监督视频行为检测方法 | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
CN108734290B (zh) | 一种基于注意力机制的卷积神经网络构建方法及应用 | |
CN107506761A (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 | |
CN110738207A (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
CN111160533A (zh) | 一种基于跨分辨率知识蒸馏的神经网络加速方法 | |
US20210383149A1 (en) | Method for identifying individuals of oplegnathus punctatus based on convolutional neural network | |
CN115661943B (zh) | 一种基于轻量级姿态评估网络的跌倒检测方法 | |
CN114038037B (zh) | 基于可分离残差注意力网络的表情标签修正和识别方法 | |
CN109635812B (zh) | 图像的实例分割方法及装置 | |
CN106845329A (zh) | 一种基于深度卷积特征多通道金字塔池化的动作识别方法 | |
CN112613428B (zh) | 基于平衡损失的Resnet-3D卷积牛视频目标检测方法 | |
CN104063721A (zh) | 一种基于语义特征自动学习与筛选的人类行为识别方法 | |
CN109359527A (zh) | 基于神经网络的头发区域提取方法及系统 | |
CN116385826A (zh) | 一种基于深度学习的中华绒螯蟹品系识别方法 | |
Liu et al. | Deep learning based research on quality classification of shiitake mushrooms | |
CN112861718A (zh) | 一种轻量级特征融合人群计数方法及系统 | |
CN112991280A (zh) | 视觉检测方法、系统及电子设备 | |
CN110992309A (zh) | 基于深层信息传递网络的眼底图像分割方法 | |
Liu et al. | Classification and recognition of turtle images based on convolutional neural network | |
CN113449712B (zh) | 一种基于改进Alexnet网络的羊脸识别方法 | |
Sarwinda et al. | Automatic multi-class classification of indonesian traditional food using convolutional neural networks | |
CN109685146A (zh) | 一种基于双卷积和主题模型的场景识别方法 | |
CN110851633B (zh) | 一种实现同时定位和哈希的细粒度图像检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |