CN116295022A - 一种基于深度学习多参数融合的猪只体尺测量方法 - Google Patents
一种基于深度学习多参数融合的猪只体尺测量方法 Download PDFInfo
- Publication number
- CN116295022A CN116295022A CN202211137750.4A CN202211137750A CN116295022A CN 116295022 A CN116295022 A CN 116295022A CN 202211137750 A CN202211137750 A CN 202211137750A CN 116295022 A CN116295022 A CN 116295022A
- Authority
- CN
- China
- Prior art keywords
- pig
- depth
- key
- detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 17
- 238000013135 deep learning Methods 0.000 title claims abstract description 16
- 238000000691 measurement method Methods 0.000 title description 4
- 238000001514 detection method Methods 0.000 claims abstract description 68
- 241000282887 Suidae Species 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 25
- 238000002372 labelling Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000009395 breeding Methods 0.000 description 4
- 230000001488 breeding effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101100441251 Arabidopsis thaliana CSP2 gene Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 244000144972 livestock Species 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003307 slaughter Methods 0.000 description 1
- UJMBCXLDXJUMFB-UHFFFAOYSA-K trisodium;5-oxo-1-(4-sulfonatophenyl)-4-[(4-sulfonatophenyl)diazenyl]-4h-pyrazole-3-carboxylate Chemical compound [Na+].[Na+].[Na+].[O-]C(=O)C1=NN(C=2C=CC(=CC=2)S([O-])(=O)=O)C(=O)C1N=NC1=CC=C(S([O-])(=O)=O)C=C1 UJMBCXLDXJUMFB-UHFFFAOYSA-K 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
- G01B11/0608—Height gauges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种多参数融合的猪只体尺快速检测方法,首先固定视角采集生猪背部彩色图像和深度图像数据,基于改进的YOLOv5_Mobilenet_SE模型进行生猪背部关键部位检测模型。然后根据检测框中心点连线距离计算出猪只体尺的像素距离,建立像素长度与真实体尺预测模型,得到猪只体长和体宽数据。对于猪只体高参数采用深度图像进行关键点检测,根据固定高度与关键点深度计算猪只体高。本技术方案融合多参数,基于深度学习算法,快速准确的预测猪只体尺数据,关键点的预测也对遮挡扭曲的生猪识别提高了检测精度。
Description
技术领域
本发明涉及计算机视觉、深度学习和农业信息化领域,具体一种基于深度学习多参数融合的猪只体尺测量方法。
背景技术
我国畜牧业生产获得巨大发展,从小规模、家庭农户分散饲养到集约化、规模化、工厂化养殖,产量越来越高,给养殖户带来了巨大的经济效益。生猪的体尺数据能直接反映养殖过程中,猪只生长发育情况,无接触的体尺识别方式已经成为实际生产的主流技术。体尺参数测量方面,早期需要饲养员进行人工测量,对于猪只来说,人工测量往往会造成猪群惊扰,从而影响猪只出栏率和周期。所以现代化种猪繁育猪场一般不推荐这种测量方法。随着计算机技术与传感器技术的发展,将计算机视觉技术用于畜牧业养殖等行业已经逐渐成为主流。
基于工厂化的养殖环境的实际需求,采用二维图像设备进行数据收集,在硬件成本,设备使用与安装难度和便携性等多方面更满足工厂化数据收集。从检测模型的实时性来看,采用深度学习进行目标检测能有效缩短图像处理时间,将其用于生猪体尺的检测逐渐成为新趋势。目标检测算法主要分为两大类:基于回归的单精度目标检测算法,如SSD、YOLO算法等,致力于探索更小的代价进行目标检测识别,具有推理速度快、检测时间短的特点,在实时检测方面有着广泛应用;基于检测帧和分类器的双精度目标检测算法,识别精度高、网络结构深、模型较大,因此模型计算复杂,训练时间普遍久。
发明内容
本发明的目的在于克服现有技术的不足,提供一种多参数融合的猪只体尺快速检测方法。
本发明是通过以下技术方案实现的:
一种基于深度学习多参数融合的猪只体尺测量方法,包括步骤:
步骤一:获取生猪背部的深度图像和彩色图像数据集;
步骤二:对步骤一的数据集进行标注,彩色图像以边界框形式标注,深度图像以关键点形式标注,标注类别,类别标签分为头部、尾部和肩部;
步骤三:构建基于彩色图像的猪只关键部位检测模型;
步骤四:将拍摄的待检测猪只背部彩色图像输入步骤三建立的猪只关键部位检测模型,识别出图像中的头部、尾部、左肩、右肩四个类别的检测框,计算头部和尾部两个检测框的中心点之间的距离作为体长图像距离,左肩和右肩两个检测框的中心点的距离作为体宽图像距离;
步骤五:根据测量的猪只真实体尺数据与步骤四获得的猪背部关键点部位的体长和体宽图像距离数据建立并训练猪只体尺预测模型,该体尺预测模型以步骤四获得的猪背部关键点部位的体长和体宽图像距离数据为输入,以真实的猪只体尺为预测目标;
步骤六:构建基于深度图像的猪只关键部位检测模型;
步骤七:将拍摄的待检测猪只背部深度图像输入步骤六建立的猪只关键部位检测模型,识别出猪只背部的头部、尾部、左肩、右肩四个关键点坐标信息,并根据深度图像数据得到识别出的四个关键点所对应的深度信息,进而对猪只体高进行计算。
在上述技术方案中,步骤一中,获取生猪的体长、肩宽、体高数据。
在上述技术方案中,步骤一中,在猪圈的限位栏顶部架设深度相机和可见光相机,拍摄获取生猪背部的深度图像和彩色图像,删除相似度较高的图片、模糊图片以及遮挡严重的数据,以JPG的格式存储。
在上述技术方案中,步骤三中,采用YOLOv5_MobileNet_SE网络模型构建基于彩色图像的猪只关键部位检测模型,YOLOv5_MobileNet_SE网络模型使用MobileNetV3作为YOLOv5网络主干特征提取网络来增强特征提取的速度,然后加入注意力机制提升模型检测精度;在训练过程中,主干特征提取网络由7个Inverted Residual块构成,每个InvertedResidual包含两个逐点卷积层和一个深度卷积层,同时为满足后续特征融合网络输出条件,将第2、4、7个Inverted Residual块输出结果进行逐点卷积层PW_Conv依次输出为128、256、512通道。
在上述技术方案中,步骤七中,首先根据深度相机内参,提出深度图像的深度信息,计算回归出关键点坐标的深度信息,最后计算固定拍摄高度与关键点深度差,计算有效关键点的平均高度为猪只体高。猪只体高预测结果如表4所示,真实测量猪只平均体高为86.68cm,与本发明预测的猪只体高的平均绝对误差仅为1.59cm,具有较高的准确性。
本发明的优点和有益效果如下:
本发明首先固定视角采集生猪背部彩色图像和深度图像数据,基于改进的YOLOv5_Mobilenet_SE模型进行生猪背部关键部位检测模型。然后根据检测框中心点连线距离计算出猪只体尺的像素距离,建立像素长度与真实体尺预测模型,得到猪只体长和体宽数据。对于猪只体高参数采用深度图像进行关键点检测,根据固定高度与关键点深度计算猪只体高。本技术方案融合多参数,基于深度学习算法,快速准确的预测猪只体尺数据,关键点的预测也对遮挡扭曲的生猪识别提高了检测精度。
附图说明
图1为本发明的基于深度学习多参数融合的猪只体尺测量方法的流程图。
图2是彩色图像识别的猪只关键部位。
图3是深度图像识别的猪只关键部位。
具体实施方式
为清楚地说明本发明一种基于深度学习多参数融合的猪只体尺测量方法,结合具体实施例进行说明。
一种基于深度学习多参数融合的猪只体尺测量方法,包括步骤:
步骤一:获取生猪背部的深度图像和彩色图像数据集
具体的讲,在猪圈的限位栏顶部架设深度相机和可见光相机,拍摄获取生猪背部的深度图像和彩色图像,删除相似度较高的图片、模糊图片以及遮挡严重的数据,以JPG的格式存储。
此外,还需要通过手工测量的方法获取生猪的体长、肩宽、体高数据。
步骤二:标注数据集
使用图片标注工具labelme对步骤一的数据集进行标注。其中,彩色图像以边界框形式,深度图像以关键点形式标注,标定类别,分别标注深度图像数据集和彩色图像数据集。标注文件与图片名字进行对应,最后经过数据归一化,整理为txt标签,统一为COCO数据集。具体的,数据集中的类别标签分为头部、尾部和肩部,即根据猪只关键部位分为三个标签“head”、“tail”和“shoulder”。
优选的,数据标注后,由于步骤一获取的图像中肩部轮廓信息较少,而且小目标数据检测较多,因此需要对数据集进行增强。本实施例采用以CurMix为核心技术的Mosaic算法进行数据增强,将四幅图片拼起来成为一张大图,拼接时采用随机拼接的机制。通过对采集到的图像进行Mosaic数据增强,提高了数据集的丰富度,加大网络对小目标数据的特征提取。
步骤三:构建基于彩色图像的猪只关键部位检测模型
本实施例基于改进的YOLOv5目标检测网络构建基于彩色图像的猪只关键部位检测模型,构建了一种YOLOv5_Mobilenet_SE猪只关键部位检测模型。该模型基于YOLOv5网络,引入轻量化的目标检测模型MobilenetV3作为主干网络,然后加入注意力机制SE模块提升模型识别效果。
YOLO系列算法使用回归的思想,将检测问题转化为一个回归问题,YOLO主要由三个主要部分组成:Backbone、Neck和Head,YOLOv5增加了Focus结构在图片进入backbone前,对图片进行切片操作,得到了没有信息丢失情况下的二倍下采样特征图。在Neck部分沿用PANET结构,在自顶向下的FPN后添加了一个自底向上的特征金字塔,然后引用CSPNet网络的设计的CSP2模块进行特征融合,综合之前版本的优势,YOLOv5具有更强的目标检测性能。
在主干网络采用拥有更小的体积的MobileNet网络,MobileNet有更少的计算量,更高的精度,在轻量级神经网络中拥有极大的优势。MobileNetV3使用了批规范化,参考并优化了Xception结构中的深度可分离卷积、ResNet中的瓶颈结构和残差结构,使用了全新的激活函数等,在更少的参数及更少的计算量情况下,网络精度反而超过了部分大型神经网络。YOLOv5_Mobilenet_SE采用MobileNetV3-Large作为改进网络,MobileNetV3-Large网络结构,然后加入注意力机制,首先对卷积得到的特征图进行维度压缩操作,得到全局特征,然后对全局特征进行自适应重新校准,学习各个通道间的关系,也得到不同通道的权重,最后乘以原来的特征图得到最终特征。维度压缩(Squeeze)操作,将整个空间特征编码为一个全局特征,采用全局平均池化操作来实现,如式所示。自适应重新校准(Excitation)操作抓取通道之间的关系,最后将学习到的各个通道的激活值乘以U上的原始特征。
YOLOv5_MobileNet_SE架构使用MobileNetV3作为YOLOv5网络主干特征提取网络来增强特征提取的速度,然后加入注意力机制提升模型检测精度。在训练过程中,主干特征提取网络由7个Inverted Residual块构成,每个Inverted Residual包含两个逐点卷积层和一个深度卷积层,同时为满足后续特征融合网络输出条件,将第2、4、7个InvertedResidual块输出结果进行逐点卷积层PW_Conv依次输出为128、256、512通道。然后在主干特征提取网络后加入注意力机制,进一步提升模型检测精度。
本发明的YOLOv5_MobileNet_SE模型预测了3种不同尺度上的边界盒:52×52、26×26和13×13。它还对目标类别进行分类定位,以适应不同大小的标签检测。在对生猪背部数据集的关键部位检测任务中,对比YOLOv5原始网络与YOLOv5_MobileNet_SE网络检测效果。
本发明的YOLOv5_MobileNet_SE模型在NVIDIA GeForce RTX 3090服务器上进行训练和测试,网络初始化参数如表1所示。根据服务器内存,本文将batch size设置为16,为了模型充分学习,将实验训练次数设置为100epoch,通过多次实验,验证学习率为0.0001时模型收敛速度较快,优化器采用Adam,权重衰减正则化等参数使用YOLOv5模型初始的设定值进行训练。
表1试验相关配置
为了比较不同姿态不同种类的生猪对检测结果的影响,分别使用目标检测网络来训练理想姿态、遮挡姿态的大白、长白和杜洛克生三种生猪的背部图像。将图像混合起来作为训练集检测生猪头部、尾部和肩膀部位,使用标签“head”、“tail”和“shoulder”。改进前后网络模型检测生猪部位目标的准确率、召回率、平均精度、检测时间和模型大小显示在表2中。
表2改进前后网络试验结果对比
可以看出,本发明的YOLOv5_Mobilenet_SE模型比YOLOv5模型收敛速度更快,收敛效果更好。YOLOv5中的最终mAP为87.9%,而YOLOv5_Mobilenet_SE中为91.8%。可以清楚地观察到,改进后的模型的性能得到了显着提高。在检测速度和性能方面,提出的YOLOv5_MobileNet_SE模型优于原本的YOLOv5。与原始网络相比,模型体积减小,检测速度更快。
步骤四:体长体宽像素距离计算
将拍摄的待检测猪只背部彩色图像输入步骤三建立的猪只关键部位检测模型,识别出图像中的头部、尾部、左肩、右肩四个类别的检测框,根据检测结果的检测框坐标,获得检测框中心点坐标作为彩色图像猪只背部关键点(即得到猪只背部的头部、尾部、左肩、右肩四个关键点的坐标),然后计算猪只背部关键点的图像距离:头部和尾部两个关键点之间的距离为体长图像距离,左肩和右肩两个关键点之间的距离为体宽图像距离。
步骤五:建立猪只体尺预测模型
由于步骤四求得的猪只背部体尺数据只是猪的背部关键点部位的图像距离,并不是真实的猪只体尺。因此,本发明采取机器学习的方式,根据步骤一测量的猪只真实体尺数据与步骤四获得的猪背部关键点部位的体长和体宽图像距离数据建立并训练猪只体尺预测模型(该体尺预测模型以步骤四获得的猪背部关键点部位的体长和体宽图像距离数据为输入,以真实的猪只体尺为预测目标)。
如表3所示,本发明对比了采用线性回归、支持向量回归和梯度增强算法三种算法建立的猪只体尺预测模型的预测效果,根据实验表明,优选为采用梯度增强算法建立猪只体尺预测模型,效果最优。
表3预测模型误差对比
步骤六:构建基于深度图像的猪只关键部位检测模型
基于步骤二重建立的深度图像标注数据集,构建基于深度图像的猪只关键部位检测模型。该检测模型同样以YOLOv5_Mobilenet_SE模型为基础,为了准确定位猪的关键部位并确定其体高,在本发明中,改进后的YOLOv5_Mobilenet_SE的输出增加了对关键点的检测损失,并且将关键点的坐标信息添加到了YOLOv5_Mobilenet_SE模型的输入和输出。关键点实验数据集使用“1、2、3、4”将猪的各个部位分别表示为“头部、尾部、左肩、右肩”。使用不同类型的猪和不同方向的图像进行测试,模型的预测结果较好,能够准确预测出不同品种和方向的生猪背部图像的关键点。同时,对于不规则扭曲的猪只图像的识别效果也比较准确,证明了模型的泛化性。
步骤七:猪只的体高计算
将拍摄的待检测猪只背部深度图像输入步骤六建立的猪只关键部位检测模型,识别出猪只背部的头部、尾部、左肩、右肩四个关键点坐标信息,并根据深度图像数据得到识别出的四个关键点所对应的深度信息,用来对猪只体高进行计算。由于猪只的头部、肩膀和尾部基本保持为同一平面,所以计算四个关键点高度的平均值作为猪只体高。猪只体高的计算方式首先根据深度相机内参,提出深度图像的深度信息,计算回归出关键点坐标的深度信息,最后计算固定拍摄高度与关键点深度差,计算有效关键点的平均高度为猪只体高。猪只体高预测结果如表4所示,真实测量猪只平均体高为86.68cm,与本发明预测的猪只体高的平均绝对误差仅为1.59cm,具有较高的准确性。
表4体高预测结果
以上对本发明做了示例性的描述,应该说明的是,在不脱离本发明的核心的情况下,任何简单的变形、修改或者其他本领域技术人员能够不花费创造性劳动的等同替换均落入本发明的保护范围。
Claims (5)
1.一种基于深度学习多参数融合的猪只体尺测量方法,其特征在于,包括步骤:
步骤一:获取生猪背部的深度图像和彩色图像数据集;
步骤二:对步骤一的数据集进行标注,彩色图像以边界框形式标注,深度图像以关键点形式标注,标注类别,类别标签分为头部、尾部和肩部;
步骤三:构建基于彩色图像的猪只关键部位检测模型;
步骤四:将拍摄的待检测猪只背部彩色图像输入步骤三建立的猪只关键部位检测模型,识别出图像中的头部、尾部、左肩、右肩四个类别的检测框,计算头部和尾部两个检测框的中心点之间的距离作为体长图像距离,左肩和右肩两个检测框的中心点的距离作为体宽图像距离;
步骤五:根据测量的猪只真实体尺数据与步骤四获得的猪背部关键点部位的体长和体宽图像距离数据建立并训练猪只体尺预测模型,该体尺预测模型以步骤四获得的猪背部关键点部位的体长和体宽图像距离数据为输入,以真实的猪只体尺为预测目标;
步骤六:构建基于深度图像的猪只关键部位检测模型;
步骤七:将拍摄的待检测猪只背部深度图像输入步骤六建立的猪只关键部位检测模型,识别出猪只背部的头部、尾部、左肩、右肩四个关键点坐标信息,并根据深度图像数据得到识别出的四个关键点所对应的深度信息,进而对猪只体高进行计算。
2.根据权利要求1所述的基于深度学习多参数融合的猪只体尺测量方法,其特征在于:步骤一中,获取生猪的体长、肩宽、体高数据。
3.根据权利要求1所述的基于深度学习多参数融合的猪只体尺测量方法,其特征在于:步骤一中,在猪圈的限位栏顶部架设深度相机和可见光相机,拍摄获取生猪背部的深度图像和彩色图像,删除相似度较高的图片、模糊图片以及遮挡严重的数据。
4.根据权利要求1所述的基于深度学习多参数融合的猪只体尺测量方法,其特征在于:步骤三中,采用YOLOv5_MobileNet_SE网络模型构建基于彩色图像的猪只关键部位检测模型,YOLOv5_MobileNet_SE网络模型使用MobileNetV3作为YOLOv5网络主干特征提取网络来增强特征提取的速度,然后加入注意力机制提升模型检测精度;在训练过程中,主干特征提取网络由7个Inverted Residual块构成,每个Inverted Residual包含两个逐点卷积层和一个深度卷积层,同时为满足后续特征融合网络输出条件,将第2、4、7个InvertedResidual块输出结果进行逐点卷积层PW_Conv依次输出为128、256、512通道。
5.根据权利要求1所述的基于深度学习多参数融合的猪只体尺测量方法,其特征在于:步骤七中,首先根据深度相机内参,提出深度图像的深度信息,计算回归出关键点坐标的深度信息,最后计算固定拍摄高度与关键点深度差,计算有效关键点的平均高度为猪只体高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211137750.4A CN116295022A (zh) | 2022-09-19 | 2022-09-19 | 一种基于深度学习多参数融合的猪只体尺测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211137750.4A CN116295022A (zh) | 2022-09-19 | 2022-09-19 | 一种基于深度学习多参数融合的猪只体尺测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116295022A true CN116295022A (zh) | 2023-06-23 |
Family
ID=86789354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211137750.4A Pending CN116295022A (zh) | 2022-09-19 | 2022-09-19 | 一种基于深度学习多参数融合的猪只体尺测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116295022A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116519106A (zh) * | 2023-06-30 | 2023-08-01 | 中国农业大学 | 一种用于测定生猪体重的方法、装置、存储介质和设备 |
CN117029673A (zh) * | 2023-07-12 | 2023-11-10 | 中国科学院水生生物研究所 | 一种基于人工智能实现的鱼类体表多尺寸测量方法 |
-
2022
- 2022-09-19 CN CN202211137750.4A patent/CN116295022A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116519106A (zh) * | 2023-06-30 | 2023-08-01 | 中国农业大学 | 一种用于测定生猪体重的方法、装置、存储介质和设备 |
CN116519106B (zh) * | 2023-06-30 | 2023-09-15 | 中国农业大学 | 一种用于测定生猪体重的方法、装置、存储介质和设备 |
CN117029673A (zh) * | 2023-07-12 | 2023-11-10 | 中国科学院水生生物研究所 | 一种基于人工智能实现的鱼类体表多尺寸测量方法 |
CN117029673B (zh) * | 2023-07-12 | 2024-05-10 | 中国科学院水生生物研究所 | 一种基于人工智能实现的鱼类体表多尺寸测量方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | Segmentation and measurement scheme for fish morphological features based on Mask R-CNN | |
Hu et al. | Real-time nondestructive fish behavior detecting in mixed polyculture system using deep-learning and low-cost devices | |
Li et al. | Deep cascaded convolutional models for cattle pose estimation | |
CN116295022A (zh) | 一种基于深度学习多参数融合的猪只体尺测量方法 | |
CN111178197A (zh) | 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法 | |
US20210383149A1 (en) | Method for identifying individuals of oplegnathus punctatus based on convolutional neural network | |
CN111696150A (zh) | 一种叉尾鮰鱼表型数据的测量方法 | |
Dohmen et al. | Image-based body mass prediction of heifers using deep neural networks | |
Zhang et al. | Biometric facial identification using attention module optimized YOLOv4 for sheep | |
CN114898405B (zh) | 基于边缘计算的便携式肉鸡异常监测系统 | |
Isa et al. | CNN transfer learning of shrimp detection for underwater vision system | |
Yu et al. | Teat detection of dairy cows based on deep learning neural network FS-YOLOv4 model | |
CN117029673B (zh) | 一种基于人工智能实现的鱼类体表多尺寸测量方法 | |
Tonachella et al. | An affordable and easy-to-use tool for automatic fish length and weight estimation in mariculture | |
Ma et al. | Pig face recognition based on improved YOLOv4 lightweight neural network | |
CN112883915A (zh) | 一种基于迁移学习的麦穗自动识别方法和系统 | |
CN112966698A (zh) | 基于轻量化卷积网络的淡水鱼图像实时识别方法 | |
CN117351404A (zh) | 一种奶牛分娩应激程度判识方法及系统 | |
CN116824405A (zh) | 一种无人机航拍视角下基于改进YOLOv8的青皮核桃目标检测方法 | |
CN115908843A (zh) | 过热度识别模型训练方法、识别方法、设备及存储介质 | |
Wang et al. | Deep learning method for rapidly estimating pig body size | |
CN113392927A (zh) | 一种基于单阶深度神经网络的动物目标检测方法 | |
CN113947780A (zh) | 一种基于改进卷积神经网络的梅花鹿面部识别方法 | |
Li | Research Progress on Acquisition and Processing of Rice Disease Images Based on Computer Vision Technology | |
Liu et al. | Study on Pig Body Condition Scoring Based on Deep Learning Model EfficientNet-B0 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |