CN116385826A - 一种基于深度学习的中华绒螯蟹品系识别方法 - Google Patents

一种基于深度学习的中华绒螯蟹品系识别方法 Download PDF

Info

Publication number
CN116385826A
CN116385826A CN202310305147.0A CN202310305147A CN116385826A CN 116385826 A CN116385826 A CN 116385826A CN 202310305147 A CN202310305147 A CN 202310305147A CN 116385826 A CN116385826 A CN 116385826A
Authority
CN
China
Prior art keywords
loss
frame
deep learning
prediction
eriocheir sinensis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310305147.0A
Other languages
English (en)
Inventor
俸皓
曹航竞
王春
张黎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202310305147.0A priority Critical patent/CN116385826A/zh
Publication of CN116385826A publication Critical patent/CN116385826A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)

Abstract

本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的中华绒螯蟹品系识别方法,通过使用多个品系的河蟹图片生成训练数据集,对包含CSPNet的主干网络进行训练,分尺度对提取到的特征向量进行特征融合,再通过预测层进行预测操作,将预测结果与标注数据进行比对,根据损失函数计算损失值,反复迭代,反向传播,优化损失值,获得训练好的模型,最后使用训练后的模型进行河蟹品系的预测,实现河蟹品系检测自动化,进一步的,如检测失败再结合人工进行特别处理,也可以对检测用模型再次优化。

Description

一种基于深度学习的中华绒螯蟹品系识别方法
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的中华绒螯蟹品系识别方法。
背景技术
中华绒螯蟹(Eriocheir sinensis)又被称为大闸蟹、河蟹,在中国是一种重要的水产养殖物种。由于其具有独特的风味,富含多种人体所需的矿物元素、脂肪酸、氨基酸等多类营养物质,深受人们的喜爱,从而具有重要的经济意义。近年来,河蟹的养殖规模逐渐扩大,其中长江流域的江苏、安徽、湖北三省的产量达到了全国的80%左右,是我国优质水产品种。
随着20世纪80年代初期河蟹人工繁育技术突破以后,我国河蟹的人工养殖就迅速地发展起来。在高速发展的同时,河蟹苗种产业出现种源混乱、种质退化、苗种质量不稳定、成蟹个体小、早熟比例增加、优质良种的覆盖偏低等问题,且外壳特征相似程度较高,不是专业人员很难区分蟹的品系。给培育优良品种的河蟹带来了困扰,严重影响着河蟹产业的发展。但是,传统的DNA识别方法太过复杂,检测环境苛刻,时间成本太高。
发明内容
本发明的目的在于提供一种基于深度学习的中华绒螯蟹品系识别方法,解决河蟹养殖人员无法快速识别河蟹品系的问题,引入深度学习和计算机视觉技术进行识别,方便养殖人员挑选出所需的品系。
为实现上述目的,本发明提供了一种基于深度学习的中华绒螯蟹品系识别方法,包括下列步骤:
步骤1:拍摄各个品系的河蟹图片;
步骤2:使用labelme手工标注拍摄的图片,生成训练数据集;
步骤3:对训练集进行Mosaic数据增强,获得增强后的数据集,并计算自适应锚框;
步骤4:将增强后的数据集送入改进后的主干网络中进行特征提取;
步骤5:将步骤4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
步骤6:将步骤5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果;
步骤7:将预测结果与标注数据进行比对,根据损失函数计算损失值;
步骤8:迭代优化后获得训练好的模型;
步骤9:使用步骤8中得到的模型进行河蟹品系的预测;
步骤10:如果步骤9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
可选的,在使用labelme手工标注拍摄的图片的过程中,使用labelme框选出图片中蟹壳所在位置,并标记成对应类别。
可选的,所述改进后的主干网络包括transform模块、CSPNet网络和Mish激活函数,所述transform模块关注全局并建模全局间的像素关系;所述CSPNet网络将输入的向量拆成两个部分再进行融合,通过分块操作来降低计算量;所述Mish激活函数用来缓解模型不收敛的情况。
可选的,所述改进后的颈部网络采用FPN+PAN的结构,FPN是自顶向下,将高层的强语义特征传递下来,对整个金字塔进行增强,PAN则是一个自底向上的金字塔,对FPN进行补充,将低层的强定位特征传递上去。
可选的,在所述预测层进行的为普通的卷积操作,最终获得一个一维向量,一维向量包括预测框中心点、预测框框高以及置信度信息。
可选的,所述损失函数包括分类损失、定位损失和置信度损失三个部分,所述损失函数的表达式为
Figure BDA0004146468990000021
其中N为检测层的个数,B是目标中心点落在先验框中的目标个数,Di是当前尺度对应的网格数,
Figure BDA0004146468990000022
为边界框回归损失,/>
Figure BDA0004146468990000023
为目标损失,/>
Figure BDA0004146468990000024
为分类损失,λ1、λ2、λ3分别为三个权重参数。
可选的,所述定位损失用来衡量预测框与真实框的误差情况,在定位损失过程中采用CIoU Loss,CIoU Loss考虑了预测框与真实框的宽高比信息、真实框与预测框的IoU值以及真实框与预测框二者中心点的距离。
可选的,分类损失与置信度损失采用的二元交叉熵损失函数,根据预测框的类别得分与真实框的类别得分二者来进行计算。
可选的,在迭代优化后获得训练好的模型的过程中,迭代轮数为300轮,batch-size设为6,使用cache images,优化器使用SGD。
本发明提供了一种基于深度学习的中华绒螯蟹品系识别方法,通过使用多个品系的河蟹图片生成训练数据集,对包含CSPNet的主干网络进行训练,分尺度对提取到的特征向量进行特征融合,再通过预测层进行预测操作,将预测结果与标注数据进行比对,根据损失函数计算损失值,反复迭代,反向传播,优化损失值,获得训练好的模型,最后使用训练后的模型进行河蟹品系的预测,实现河蟹品系检测自动化,进一步的,如检测失败再结合人工进行特别处理,也可以对检测用模型再次优化。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的整体流程示意图。
图2是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的训练流程示意图。
图3是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的检测流程示意图。
图4是本发明的一种基于深度学习的中华绒螯蟹品系识别方法的整体网络结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明提供了一种基于深度学习的中华绒螯蟹品系识别方法,包括下列步骤:
S1:拍摄各个品系的河蟹图片;
S2:使用labelme手工标注拍摄的图片,生成训练数据集;
S3:对训练集进行Mosaic数据增强,获得增强后的数据集,并计算自适应锚框;
S4:将增强后的数据集送入改进后的主干网络中进行特征提取;
S5:将步骤S4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
S6:将步骤S5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果;
S7:将预测结果与标注数据进行比对,根据损失函数计算损失值;
S8:迭代优化后获得训练好的模型;
S9:使用步骤S8中得到的模型进行河蟹品系的预测;
S10:如果步骤S9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
本发明的一种基于深度学习的中华绒螯蟹品系识别方法,具体包括训练和检测两个过程,其中步骤S1至步骤S8为训练过程,具体如图2所示,步骤S9为检测过程,请参阅图3。
进一步的,以下通过具体实施例和实施步骤对本发明作进一步说明:
步骤S1、拍摄各个品系的河蟹图片。
其中“长江1号”3276张,“长江2号”3800张,“光合1号”3826张,“诺亚1号”3711张,共计14613张河蟹图片。
步骤S2、使用labelme手工标注拍摄的图片,生成训练数据集。
使用labelme框选出图片中蟹壳所在位置,并标记成对应类别。
步骤S3、对训练集进行数据增强,得到更加丰富的数据集,并计算自适应锚框。
数据增强方法1是通过随机选取4张图片,将这四张图片通过随机缩放、随机裁减、随机排布的方式进行拼接,得到新的图片。方法2是对原始图片进行翻转、旋转、调整对比度亮度等操作获取新的图片,大大丰富了检测数据集,让深度学习网络的鲁棒性更好。
步骤S4、将增强后的数据集送入改进后的主干网络中进行特征提取;
如图4所示,本方法的主干网络基于CSPDarknet53网络进行改进。
CSPDarknet53网络主要由CBS、CSPNet等模块组成。CBS是卷积(conv)、归一化(Batch Normalization)和SiLU激活函数的简写,CSPNet通过将梯度的变化从头到尾地集成到特征图中,在减少了计算量的同时可以保证准确率。CSPNet的核心思想是,将输入的向量拆成两个部分,一部分进行卷积操作,另一部分和上一部分卷积操作的结果进行融合最终得到一个特征向量,通过分块操作来降低计算量,并保持性能。SiLU激活函数,则是用来缓解模型不收敛的情况。
然而CSPDarknet53网络主要是用到了传统的卷积操作,然而卷积操作通常只会建模局部间的像素关系,Swin Transformer模块则会关注于全局,能够建模全局间的像素关系。为了给原始的主干网络带来这种全局的建模能力,提高模型主干网络的特征提取能力,本方法将CSPDarknet53网络中,靠后的二个CSP模块修改为Swin Transformer模块。模块的核心思想是运用了基于移动窗口的多头自注意机制,在一个个的小窗口里面计算自注意权重。改进后的主干网络极大的提升了对河蟹蟹壳的特征提取能力。
步骤S5、将步骤S4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
原始的颈部网络主要采用FPN(Feature Pyramid Networks)+PAN(PathAggregationNetwork)的结构。
首先经过FPN自顶向下,将高维度的语义特征通过上采样和低维度的位置特征进行特征融合,提升模型对目标的检测能力;其次通过PAN自底向上,将低维度的位置特征通过下采样和高维度的语义特征进行特征融合,提升模型的定位能力。然而这种结构缺少了对图像区域重要程度的划分信息。
为了进一步提升模型的检测能力,提升蟹壳在整体图像中的位置所占权重,让模型更加关注于蟹壳,并抑制与蟹壳无关的背景特征,本发明在YOLOv5s的大、中、小三个检测头之前,各添加了一个ShuffleAttention模块。目前,常见的注意力机制可分为空间注意力机制和通道注意力机制,同时使用二种注意力机制会有效提升模型的检测能力,与此同时无疑会增加计算量。SA注意力机制便通过分组计算的方式,在保证模型效果的同时,巧妙的降低了模型的计算量,SA的整体流程如下:首先将通道进行分组,其次并行的对每一组进行空间和通道注意力权重的计算,最后使用Channel Shuffle操作让各组的特征信息进行融合与交汇,高效的结合了空间与通道注意力机制,提高了模型的检测能力。
步骤S6、将步骤S5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果。
预测层是一个普通的卷积操作,最终得到一个一维向量,这个一维向量包括预测框中心点,预测框框高以及置信度信息。
步骤S7、将预测结果与标注数据进行比对,根据损失函数计算损失值。
损失函数由三个部分构成,分别为分类损失(cls_loss)、定位损失(box_loss)和置信度损失(obj_loss)。定位损失用来衡量预测框与真实框的误差情况,本方法采用的CIoU Loss,CIoU Loss考虑了预测框与真实框的宽高比信息、真实框与预测框的IoU值以及真实框与预测框二者中心点的距离。置信度损失则是根据预测框中的检测物置信度得分和预测框与目标框的iou(Intersection overUnion,交并比)值,二者计算二元交叉熵损失(Binary Cross Entropy Loss)得到最终的置信度损失。分类损失与置信度损失相同,同样采用的二元交叉熵损失函数,根据预测框的类别得分与真实框的类别得分二者来进行计算。
总的损失函数如式1所示。
Figure BDA0004146468990000061
其中N为检测层的个数,B是目标中心点落在先验框中的目标个数,Di是当前尺度对应的网格数,
Figure BDA0004146468990000062
为边界框回归损失,/>
Figure BDA0004146468990000063
为目标损失,/>
Figure BDA0004146468990000064
为分类损失。λ1、λ2、λ3分别为三个权重参数。
边界框回归损失具体的公式如式2,3,4所示。
Figure BDA0004146468990000065
Figure BDA0004146468990000066
Figure BDA0004146468990000067
其中,b、bgt分别为预测框和真实框,wgt、hgt、w、h分别为真实框的宽高和预测框的宽高,p为预测框与真实框二者中心点的距离,α为权重系数。
目标损失与分类损失均采用二元交叉熵损失函数,其计算公式如(5)、(6)所示。
Figure BDA0004146468990000071
Figure BDA0004146468990000072
S8、反复迭代,反向传播,优化损失值,最终得到一个训练好的模型。
具体的迭代轮数为300轮,batch-size设为6,使用cache images,优化器使用SGD。
S9、使用步骤S8中得到的模型进行河蟹品系的预测。
S10、如果步骤S9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
实验表明,该模型预测河蟹品系的准确率高达93.6%,能够很好的识别出河蟹的品系,对比于传统的生化方法,本方法利用深度学习技术,有效的让模型网络学习到了河蟹蟹壳特征,避免了传统方法冗余复杂的步骤,大大的降低了河蟹养殖人员的鉴别成本与时间,具有一定的应用价值。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (9)

1.一种基于深度学习的中华绒螯蟹品系识别方法,其特征在于,包括下列步骤:
步骤1:拍摄各个品系的河蟹图片;
步骤2:使用labelme手工标注拍摄的图片,生成训练数据集;
步骤3:对训练集进行Mosaic数据增强,获得增强后的数据集,并计算自适应锚框;
步骤4:将增强后的数据集送入改进后的主干网络中进行特征提取;
步骤5:将步骤4中提取到的特征向量送入改进后的颈部网络进行特征融合,获得大、中、小三个尺度的特征向量;
步骤6:将步骤5中得到的三个特征向量分别送入预测层中进行预测,得到预测结果;
步骤7:将预测结果与标注数据进行比对,根据损失函数计算损失值;
步骤8:迭代优化后获得训练好的模型;
步骤9:使用步骤8中得到的模型进行河蟹品系的预测;
步骤10:如果步骤9成功检测到了河蟹品系且置信度大于0.8,则视为检测成功,否则将此图片标记为检测失败,放入特定文件夹中交由人工处理。
2.如权利要求1所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
在使用labelme手工标注拍摄的图片的过程中,使用labelme框选出图片中蟹壳所在位置,并标记成对应类别。
3.如权利要求1所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述改进后的主干网络包括transform模块、CSPNet网络和Mish激活函数,所述transform模块关注全局并建模全局间的像素关系;所述CSPNet网络将输入的向量拆成两个部分再进行融合,通过分块操作来降低计算量;所述Mish激活函数用来缓解模型不收敛的情况。
4.如权利要求3所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述改进后的颈部网络采用FPN+PAN的结构,FPN是自顶向下,将高层的强语义特征传递下来,对整个金字塔进行增强,PAN则是一个自底向上的金字塔,对FPN进行补充,将低层的强定位特征传递上去。
5.如权利要求4所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
在所述预测层进行的为普通的卷积操作,最终获得一个一维向量,一维向量包括预测框中心点、预测框框高以及置信度信息。
6.如权利要求5所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述损失函数包括分类损失、定位损失和置信度损失三个部分,所述损失函数的表达式为
Figure FDA0004146468980000021
其中N为检测层的个数,B是目标中心点落在先验框中的目标个数,Di是当前尺度对应的网格数,
Figure FDA0004146468980000022
为边界框回归损失,/>
Figure FDA0004146468980000023
为目标损失,/>
Figure FDA0004146468980000024
为分类损失,λ1、λ2、λ3分别为三个权重参数。
7.如权利要求6所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
所述定位损失用来衡量预测框与真实框的误差情况,在定位损失过程中采用CIoULoss,CIoU Loss考虑了预测框与真实框的宽高比信息、真实框与预测框的IoU值以及真实框与预测框二者中心点的距离。
8.如权利要求7所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
分类损失与置信度损失采用的二元交叉熵损失函数,根据预测框的类别得分与真实框的类别得分二者来进行计算。
9.如权利要求8所述的基于深度学习的中华绒螯蟹品系识别方法,其特征在于,
在迭代优化后获得训练好的模型的过程中,迭代轮数为300轮,batch-size设为6,使用cacheimages,优化器使用SGD。
CN202310305147.0A 2023-03-27 2023-03-27 一种基于深度学习的中华绒螯蟹品系识别方法 Pending CN116385826A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310305147.0A CN116385826A (zh) 2023-03-27 2023-03-27 一种基于深度学习的中华绒螯蟹品系识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310305147.0A CN116385826A (zh) 2023-03-27 2023-03-27 一种基于深度学习的中华绒螯蟹品系识别方法

Publications (1)

Publication Number Publication Date
CN116385826A true CN116385826A (zh) 2023-07-04

Family

ID=86978062

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310305147.0A Pending CN116385826A (zh) 2023-03-27 2023-03-27 一种基于深度学习的中华绒螯蟹品系识别方法

Country Status (1)

Country Link
CN (1) CN116385826A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117029673A (zh) * 2023-07-12 2023-11-10 中国科学院水生生物研究所 一种基于人工智能实现的鱼类体表多尺寸测量方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117029673A (zh) * 2023-07-12 2023-11-10 中国科学院水生生物研究所 一种基于人工智能实现的鱼类体表多尺寸测量方法
CN117029673B (zh) * 2023-07-12 2024-05-10 中国科学院水生生物研究所 一种基于人工智能实现的鱼类体表多尺寸测量方法

Similar Documents

Publication Publication Date Title
Parmar et al. What and how well you performed? a multitask learning approach to action quality assessment
CN110516536B (zh) 一种基于时序类别激活图互补的弱监督视频行为检测方法
CN109815826B (zh) 人脸属性模型的生成方法及装置
CN108734290B (zh) 一种基于注意力机制的卷积神经网络构建方法及应用
CN107506761A (zh) 基于显著性学习卷积神经网络的脑部图像分割方法及系统
CN110738207A (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
CN111160533A (zh) 一种基于跨分辨率知识蒸馏的神经网络加速方法
US20210383149A1 (en) Method for identifying individuals of oplegnathus punctatus based on convolutional neural network
CN115661943B (zh) 一种基于轻量级姿态评估网络的跌倒检测方法
CN114038037B (zh) 基于可分离残差注意力网络的表情标签修正和识别方法
CN109635812B (zh) 图像的实例分割方法及装置
CN106845329A (zh) 一种基于深度卷积特征多通道金字塔池化的动作识别方法
CN112613428B (zh) 基于平衡损失的Resnet-3D卷积牛视频目标检测方法
CN104063721A (zh) 一种基于语义特征自动学习与筛选的人类行为识别方法
CN109359527A (zh) 基于神经网络的头发区域提取方法及系统
CN116385826A (zh) 一种基于深度学习的中华绒螯蟹品系识别方法
Liu et al. Deep learning based research on quality classification of shiitake mushrooms
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN112991280A (zh) 视觉检测方法、系统及电子设备
CN110992309A (zh) 基于深层信息传递网络的眼底图像分割方法
Liu et al. Classification and recognition of turtle images based on convolutional neural network
CN113449712B (zh) 一种基于改进Alexnet网络的羊脸识别方法
Sarwinda et al. Automatic multi-class classification of indonesian traditional food using convolutional neural networks
CN109685146A (zh) 一种基于双卷积和主题模型的场景识别方法
CN110851633B (zh) 一种实现同时定位和哈希的细粒度图像检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination