CN116434280A - 一种遮挡式猪只识别的模型训练方法及其系统 - Google Patents

一种遮挡式猪只识别的模型训练方法及其系统 Download PDF

Info

Publication number
CN116434280A
CN116434280A CN202310472735.3A CN202310472735A CN116434280A CN 116434280 A CN116434280 A CN 116434280A CN 202310472735 A CN202310472735 A CN 202310472735A CN 116434280 A CN116434280 A CN 116434280A
Authority
CN
China
Prior art keywords
pig
depth
whole
body diagram
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310472735.3A
Other languages
English (en)
Inventor
刘年丰
单彩峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Xingmu Animal Husbandry Technology Development Co ltd
Original Assignee
Qingdao Xingmu Animal Husbandry Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Xingmu Animal Husbandry Technology Development Co ltd filed Critical Qingdao Xingmu Animal Husbandry Technology Development Co ltd
Priority to CN202310472735.3A priority Critical patent/CN116434280A/zh
Publication of CN116434280A publication Critical patent/CN116434280A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种遮挡式猪只识别的模型训练方法及其系统,涉及猪只识别领域,其通过猪只识别数据准备,对每头猪拍摄多张照片,对同一头用同一个ID号进行标识;使用猪只识别数据,训练猪只识别任务的基础识别模型,采用基础识别模型对半身图和全身图分别提取半身图的深度特征和全身图的深度特征;将得到的特征权重按位与得到的欧氏距离相似度5进行加权相乘,得到最终两张图片的最终的CAP距离,判断这两个图片中猪是否为同一头猪。其有益效果为本发明无需额外的语义信息,因此计算量较小,检索效率较高。

Description

一种遮挡式猪只识别的模型训练方法及其系统
技术领域
本发明涉及猪只识别领域,具体为一种遮挡式猪只识别的模型训练方法及其系统。
背景技术
猪只识别是一项广泛应用于猪养殖行业的技术,它通过对猪只特征进行识别和分析,帮助养殖户更好地管理猪只。然而,在实际应用中,猪只的遮挡现象也经常会出现,这给猪只识别带来了很大的困难。
因此,针对猪只识别领域的应用,也需要一种计算量较小且性能不错的遮挡式重识别方案。这种方案可以实时处理各种类型的遮挡图像,并且能够快速准确地识别猪只特征。具体的解决方案包括但不限于增加数据集中包含遮挡的样本、设计更优秀的特征提取器以及利用注意力机制等方法来提高模型的鲁棒性和泛化能力。
现有的遮挡式识别主要分为两种类型。
1、利用深度特征重建方法,最小化半身图和全身图的深度特征重建误差来直接进行匹配。缺点:该类方法需要求解一个最优化问题,因此每次只能进行一对一的匹配策略,无法充分利用GPU等设备的张量计算能力,在性能上精度也不高。
2、利用生成对抗网络来恢复遮挡区域的猪外观信息。缺点:生成对抗网络恢复遮挡区域信息的结果随机性很大,方案无法得到唯一解,在没有足够先验信息的情况下很难正确恢复信息,因此方案的精度无法得到保证。
发明内容
本申请的目的在于提供一种遮挡式猪只识别的模型训练方法,解决目前猪只识别方案大多只适用于无遮挡的猪图片,没有处理猪只遮挡识别的问题。
为了达到上述目的,本发明采用以下技术方案。
一种遮挡式猪只识别的模型训练方法,其特征在于,具体过程如下。
步骤1、猪只识别数据准备,对每头猪拍摄多张照片,对同一头用同一个ID号进行标识。
步骤2、使用猪只识别数据,训练猪只识别任务的基础识别模型,采用基础识别模型对半身图和全身图分别提取半身图的深度特征1和全身图的深度特征2,其中半身图的深度特征1大小为W*H*C,其中W表示半身图的深度特征的宽,H表示半身图的深度特征的长,C表示半身图的深度特征的通道,全身图的深度特征2大小为W~*H~*C~,其中W~表全身图的深度特征2的宽, H~表示全身图的深度特征2的长,C~表示全身图的深度特征2的通道。
步骤3、将需要判断是不是同一头猪的两张图片送入到训练好的基础识别模型中,利用基础识别模型提取每幅图片对应的半身图的深度特征1和全身图的深度特征2。
步骤4、对半身图的深度特征1和全身图的深度特征2进行卷积操作,得到注意力特征图3,再对注意力特征图3进行归一化处理,归一化方法如下所示。
Figure SMS_1
Figure SMS_2
表示响应图上的
Figure SMS_3
位置的特征。
步骤5、对得到的注意力特征图进行水平池化操作,得到一个特征权重4,具体公式如下。
Figure SMS_4
其中,
Figure SMS_5
为特征权重,
Figure SMS_6
为在
Figure SMS_7
位置的注意力特征图3。
步骤6、对半身图的深度特征1和全身图的深度特征2进行水平池化,得到局部特征,两者对应位置计算欧氏距离相似度5。
步骤7、将步骤5得到的特征权重按位与步骤6得到的欧氏距离相似度5进行加权相乘,得到最终两张图片的最终的CAP距离,即最终两张图片的相似度。
步骤8、根据相似度大小判断这两个图片中猪是否为同一头猪,如果相似度大于0.5则为同一头猪,否则不为同一头猪。
进一步,所述的基础识别模型采用fast-reid训练而成。
进一步,将步骤3中提取的半身图的深度特征1和全身图的深度特征2进行卷积计算,在半身图的深度特征1上面的深灰色阴影为全身图的深度特征2,通过滑窗操作,计算半身图的深度特征1和对应位置的全身图的深度特征2点的乘积和,作为当前位置的响应,将所有响应组合在一起,则得到了一副(W~-W+1)*(H~-H+1)*C的注意力特征图3。
进一步,步骤6中的局部特征为局部半身图的深度特征和局部全身图的深度特征,局部半身图的深度特征的大小为H*C,局部全身图的深度特征的大小为H~*C,如下公式所示。
Figure SMS_8
其中
Figure SMS_9
为局部半身图的深度特征,
Figure SMS_10
为半身图的深度特征在位置
Figure SMS_11
的特 征。
Figure SMS_12
其中
Figure SMS_13
为局部全身图的深度特征,
Figure SMS_14
为全身图的深度特征在
Figure SMS_15
的特征。
进一步,步骤7中最终的CAP距离公式如下。
Figure SMS_16
其中,
Figure SMS_17
为CAP距离,
Figure SMS_18
为特征权重,
Figure SMS_19
表示计算欧氏距离,
Figure SMS_20
为局部半身 图的深度特征,
Figure SMS_21
为局部全身图的深度特征。
本发明还提供了一种遮挡式猪只识别的系统,其特征在于,主要包括。
数据采集模块,用于收集不同猪只的不同视角的图像。
数据处理模块,用于对数据采集模块进行数据预处理,对数据采集模块的图像进行标准化处理。
模型训练模块,采用实施例一中的遮挡式猪只识别的模型训练方法生成遮挡式猪只识别模型。
模型应用模块,将模型训练模块中的模型应用于实际生产中猪只的图像识别,根据图像给出不同的图像是否为同一头猪的判断结果。
数据库,用于保存数据采集模块,以及模型应用模块收集和产生的数据。
进一步,所述图像进行标准化处理的方法为直方图均衡化法,直方图均衡化法的步骤。
1. 将彩色图像转换为灰度图像:对于彩色图像,需要将其转换为灰度图像,以便进行直方图均衡化。
2. 计算图像的直方图:对于灰度图像,计算其每个灰度级别(0~255)出现的次数,得到原始直方图。
3. 计算累计分布函数:计算原始直方图的累计分布函数,即从灰度级别0到当前灰度级别的像素数之和。
4. 归一化:将累计分布函数除以像素总数,得到归一化的累计分布函数。
5. 映射像素值:对于每个像素,将其灰度级别替换为归一化的累计分布函数对应的新灰度级别。
6. 生成新的直方图:对于处理后的图像,重新计算其直方图,得到新的直方图。
7. 显示处理后的图像:将处理后的图像进行显示或保存。
本发明还公开了一种电子装置,所述电子装置包括。
一个或多个处理器。
存储装置,用于存储一个或多个程序。
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现实施例二提供的一种遮挡式猪只识别的系统。
其有益效果为。
1、该方案无需额外的语义信息,因此计算量较小,检索效率较高。
2、该方案可以精确检测出半身图和全身图之间共享的未遮挡区域,比深度特征重建方案更具可解释性,且可视化结果和实验结果表明精度更高。另外可以该方案利用深度学习框架自带的张量运算API实现,所以可以充分利用GPU的张量运算能力,计算速度也更快。
3、该方案有唯一确定且可解释的解,因此随机性小精度高。
附图说明
图1是图像领域互相关操作说明图。
图2是单猪在不同环境下的图片。
图3处理流程图。
图4是算法流程图。
图5是一种遮挡式猪只识别的系统的结构框图。
其中,1为半身图的深度特征,2为全身图的深度特征,3为注意力特征图,4为特征权重,5为欧氏距离相似度。
具体实施方式
以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
实施例一。
本实施例公开了一种遮挡式猪只识别的模型训练方法,整个示例流程如图3所示,采用互相关注意力机制池化方案,其英文为Cross-Correlation Based AttentionPooling,简称CAP,在实现过程中涉及到的技术术语为:半身图,是指被遮挡的猪图像;全身图,是指未被遮挡的正常猪图像。
具体过程如下。
步骤1、猪只识别数据准备。对每头猪拍摄多张照片,如图2所示,将该头猪编号为ID=1,其照片可以命名为ID1_0,ID1_1,…,ID1_N。N表示该猪的照片总数。使用正常的训练集训练一个猪只别模型。
步骤2、使用猪只识别数据,采用fast-reid训练猪只识别任务生成基础识别模型。基础识别模型采用fast-reid训练而成,fast-reid是一个强悍的目标重识别Reid开源库,由京东开源管理。通过步骤1准备好数据,用fast-reid进行模型训练,得到训练好的模型。具体来说,其输入是猪只识别数据,输出是生成的基础识别模型。
利用步骤1训练的模型对半身图和全身图分别提取半身图的深度特征1和全身图的深度特征2,其中半身图的深度特征1大小为W*H*C,其中W表示半身图的深度特征的宽,H表示半身图的深度特征的长,C表示半身图的深度特征的通道,全身图的深度特征2大小为W~*H~*C~,其中W~表全身图的深度特征2的宽, H~表示全身图的深度特征2的长,C~表示全身图的深度特征2的通道。
步骤3-8为实际使用时的识别过程。其中步骤4-7为我们算法CAP的主体部分,其流程如图3所示。
步骤3、将需要判断是不是同一头猪的两张图片送入到训练好的基础识别模型中,利用基础识别模型提取每幅图片对应的半身图的深度特征1和全身图的深度特征2。通过使用fast-reid提供的命令行工具或脚本对每幅图片进行特征提取,获取半身图和全身图的深度特征,使用由fast-reid训练而成的基础识别模型提取其特征向量,并使用图像处理工具裁剪出半身图和全身图。然后,将该基础识别模型的特征向量作为半身图和全身图的深度特征。
对半身图的深度特征1和全身图的深度特征2进行互相关操作,在图像领域互相关操作的具体实现为卷积计算,可以通过深度学习框架自带的卷积API实现。具体实现细节如图1所示,半身图的深度特征1大小为W~*H~*C(W~=H~=6)。在半身图的深度特征1上面的深灰色阴影为全身图的深度特征2,大小为W*H*C(W=H=3)。通过滑窗操作,即逐像素平移,计算半身图的深度特征1和对应位置的全身图的深度特征2点的乘积和,作为当前位置的响应。将所有响应组合在一起,则得到了一副(W~-W+1)*(H~-H+1)*C=4*4*C的注意力特征图3。
其中,深度学习框架自带的卷积API是指深度学习常用的卷机操作,例如pytorch采用nn.conv2d,tensorflow采用tf.keras.layers.Conv2D。
步骤4、对半身图的深度特征1和全身图的深度特征2进行卷积操作,对注意力特征图3进行归一化,如下所示。
Figure SMS_22
Figure SMS_23
表示响应图上的
Figure SMS_24
位置的特征,用上式对响应图进行归一化,到一副注 意力特征图3。
步骤5、对得到的注意力特征图进行水平池化操作,即按特征图每行取平均,如图4所示,得到一个特征权重4,具体公式如下。
Figure SMS_25
其中,
Figure SMS_26
为特征权重,
Figure SMS_27
为在
Figure SMS_28
位置的注意力特征图3。
步骤6、对半身图的深度特征1和全身图的深度特征2进行水平池化,如图4所示,两者对应位置计算欧氏距离相似度5,对半身图的深度特征1和全身图的深度特征2进行水平池化,得到局部特征,即局部半身图的深度特征和局部全身图的深度特征,局部半身图的深度特征的大小为H*C,局部全身图的深度特征的大小为H~*C,如下公式所示。
Figure SMS_29
其中
Figure SMS_30
为局部半身图的深度特征,
Figure SMS_31
为半身图的深度特征在位置
Figure SMS_32
的特 征。
Figure SMS_33
其中
Figure SMS_34
为局部半身图的深度特征,
Figure SMS_35
为全身图的深度特征在
Figure SMS_36
的特征。
步骤7、将步骤5得到的特征权重按位与步骤6得到的相似度进行加权相乘,得到最终两张图片的距离,即相似度。
计算对应局部特征距离,之后利用步骤5得到的权重向量加权局部特征距离得到最终的CAP距离。公式如下。
Figure SMS_37
其中,
Figure SMS_38
为CAP距离,
Figure SMS_39
为特征权重,
Figure SMS_40
表示计算欧氏距离,
Figure SMS_41
为局部半身 图的深度特征,
Figure SMS_42
为局部半身图的深度特征。
步骤8、根据相似度大小判断这两个图片中猪是否为同一头猪,如果相似度大于0.5则为同一头猪,否则不为同一头猪。
实施例二。
一种遮挡式猪只识别的系统,主要包括。
数据采集模块,用于收集不同猪只的不同视角的图像。
数据处理模块,用于对数据采集模块进行数据预处理,对数据采集模块的图像进行标准化处理。
模型训练模块,采用实施例一中的遮挡式猪只识别的模型训练方法生成遮挡式猪只识别模型。
模型应用模块,将模型训练模块中的模型应用于实际生产中猪只的图像识别,根据图像给出不同的图像是否为同一头猪的判断结果。
数据库,用于保存数据采集模块,以及模型应用模块收集和产生的数据。
其中在对图像进行标准化处理的方法为直方图均衡化法,它可以增强图像的对比度和亮度,并提高视觉效果。
直方图均衡化法的详细步骤。
1. 将彩色图像转换为灰度图像:对于彩色图像,需要将其转换为灰度图像,以便进行直方图均衡化。
2. 计算图像的直方图:对于灰度图像,计算其每个灰度级别(0~255)出现的次数,得到原始直方图。
3. 计算累计分布函数:计算原始直方图的累计分布函数,即从灰度级别0到当前灰度级别的像素数之和。
4. 归一化:将累计分布函数除以像素总数,得到归一化的累计分布函数。
5. 映射像素值:对于每个像素,将其灰度级别替换为归一化的累计分布函数对应的新灰度级别。
6. 生成新的直方图:对于处理后的图像,重新计算其直方图,得到新的直方图。
7. 显示处理后的图像:将处理后的图像进行显示或保存。
将直方图均衡化法应用于本实施例具有以下方面有以下优点。
1. 提高对比度:直方图均衡化可以增强图像的对比度,使得不同灰度级别之间的差异更加明显。这有助于提高图像的可视化效果,并且可以使得图像中的物体轮廓更加清晰,从而有利于图像识别。
2. 均匀化分布:直方图均衡化可以将像素值的分布变得更加均匀化,从而避免了一些极端情况下的过饱和或欠曝等问题。这有助于使得图像在不同光照条件下都能够获得较为一致的表现,提高图像识别的稳定性和鲁棒性。
3. 去除噪声:直方图均衡化可以去除一些噪声和背景干扰,从而使得图像中的物体更加突出并容易被检测到。这有助于提高图像识别的准确率和召回率。
通过上述系统,可以快速的对收集的猪只图像进行识别和分类,从而达到对遮挡式猪只识别,提高生产效率。
实施例三。
本实施例公开了一种电子装置,所述电子装置包括。
一个或多个处理器。
存储装置,用于存储一个或多个程序。
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现实施例二提供的一种遮挡式猪只识别的系统。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (8)

1.一种遮挡式猪只识别的模型训练方法,其特征在于,具体过程如下:
步骤1、猪只识别数据准备,对每头猪拍摄多张照片,对同一头用同一个ID号进行标识;
步骤2、使用猪只识别数据,训练猪只识别任务的基础识别模型,采用基础识别模型对半身图和全身图分别提取半身图的深度特征(1)和全身图的深度特征(2),其中半身图的深度特征(1)大小为W*H*C,其中W表示半身图的深度特征的宽,H表示半身图的深度特征(1)的长,C表示半身图的深度特征(1)的通道,全身图的深度特征(2)大小为W~*H~*C~,其中W~表全身图的深度特征(2)的宽, H~表示全身图的深度特征(2)的长,C~表示全身图的深度特征(2)的通道;
步骤3、将需要判断是不是同一头猪的两张图片送入到训练好的基础识别模型中,利用基础识别模型提取每幅图片对应的半身图的深度特征(1)和全身图的深度特征(2);
步骤4、对半身图的深度特征(1)和全身图的深度特征(2)进行卷积操作,得到注意力特征图(3),再对注意力特征图(3)进行归一化处理,归一化方法如下所示:
Figure QLYQS_1
Figure QLYQS_2
表示响应图上的/>
Figure QLYQS_3
位置的特征;
步骤5、对得到的注意力特征图进行水平池化操作,得到一个特征权重(4),具体公式如下:
Figure QLYQS_4
其中,
Figure QLYQS_5
为特征权重,/>
Figure QLYQS_6
为在/>
Figure QLYQS_7
位置的注意力特征图(3);
步骤6、对半身图的深度特征(1)和全身图的深度特征(2)进行水平池化,得到局部特征,两者对应位置计算欧氏距离相似度(5);
步骤7、将步骤5得到的特征权重按位与步骤6得到的欧氏距离相似度(5)进行加权相乘,得到最终两张图片的最终的CAP距离,即最终两张图片的相似度;
步骤8、根据相似度大小判断这两个图片中猪是否为同一头猪,如果相似度大于0.5则为同一头猪,否则不为同一头猪。
2.根据权利要求1所述的一种遮挡式猪只识别的模型训练方法,其特征在于:所述的基础识别模型采用fast-reid训练而成。
3.根据权利要求2所述的一种遮挡式猪只识别的模型训练方法,其特征在于:将步骤3中提取的半身图的深度特征(1)和全身图的深度特征(2)进行卷积计算,在半身图的深度特征(1)上面的深灰色阴影为全身图的深度特征(2),通过滑窗操作,计算半身图的深度特征(1)和对应位置的全身图的深度特征(2)点的乘积和,作为当前位置的响应,将所有响应组合在一起,则得到了一副(W~-W+1)*(H~-H+1)*C的注意力特征图(3)。
4.根据权利要求3所述的一种遮挡式猪只识别的模型训练方法,其特征在于:步骤6中的局部特征为局部半身图的深度特征和局部全身图的深度特征,局部半身图的深度特征的大小为H*C,局部全身图的深度特征的大小为H~*C,如下公式所示:
Figure QLYQS_8
其中
Figure QLYQS_9
为局部半身图的深度特征,/>
Figure QLYQS_10
为半身图的深度特征在位置/>
Figure QLYQS_11
的特征;
Figure QLYQS_12
其中
Figure QLYQS_13
为局部全身图的深度特征,/>
Figure QLYQS_14
为全身图的深度特征在/>
Figure QLYQS_15
的特征。
5.根据权利要求4所述的一种遮挡式猪只识别的模型训练方法,其特征在于:步骤7中最终的CAP距离公式如下:
Figure QLYQS_16
其中,
Figure QLYQS_17
为CAP距离, />
Figure QLYQS_18
为特征权重,/>
Figure QLYQS_19
表示计算欧氏距离,/>
Figure QLYQS_20
为局部半身图的深度特征,/>
Figure QLYQS_21
为局部全身图的深度特征。
6.一种遮挡式猪只识别的系统,其特征在于,主要包括:
数据采集模块,用于收集不同猪只的不同视角的图像;
数据处理模块,用于对数据采集模块进行数据预处理,对数据采集模块的图像进行标准化处理;
模型训练模块,采用如权利要求1-5任一所述的一种遮挡式猪只识别的模型训练方法中的遮挡式猪只识别的模型训练方法生成遮挡式猪只识别模型;
模型应用模块,将模型训练模块中的模型应用于实际生产中猪只的图像识别,根据图像给出不同的图像是否为同一头猪的判断结果;
数据库,用于保存数据采集模块,以及模型应用模块收集和产生的数据。
7.根据权利要求6所述的一种遮挡式猪只识别的系统,其特征在于:所述的数据采集模块的图像进行标准化处理的方法为直方图均衡化法,直方图均衡化法的步骤:
步骤1、将彩色图像转换为灰度图像:对于彩色图像,需要将其转换为灰度图像,以便进行直方图均衡化;
步骤2、计算图像的直方图:对于灰度图像,计算其每个灰度级别(0~255)出现的次数,得到原始直方图;
步骤3、计算累计分布函数:计算原始直方图的累计分布函数,即从灰度级别0到当前灰度级别的像素数之和;
步骤4、归一化:将累计分布函数除以像素总数,得到归一化的累计分布函数;
步骤5、映射像素值:对于每个像素,将其灰度级别替换为归一化的累计分布函数对应的新灰度级别;
步骤6、生成新的直方图:对于处理后的图像,重新计算其直方图,得到新的直方图;
步骤7、显示处理后的图像:将处理后的图像进行显示或保存。
8.一个或多个处理器,其特征在于;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求7提供的所述的一种遮挡式猪只识别的系统。
CN202310472735.3A 2023-04-28 2023-04-28 一种遮挡式猪只识别的模型训练方法及其系统 Pending CN116434280A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310472735.3A CN116434280A (zh) 2023-04-28 2023-04-28 一种遮挡式猪只识别的模型训练方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310472735.3A CN116434280A (zh) 2023-04-28 2023-04-28 一种遮挡式猪只识别的模型训练方法及其系统

Publications (1)

Publication Number Publication Date
CN116434280A true CN116434280A (zh) 2023-07-14

Family

ID=87079589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310472735.3A Pending CN116434280A (zh) 2023-04-28 2023-04-28 一种遮挡式猪只识别的模型训练方法及其系统

Country Status (1)

Country Link
CN (1) CN116434280A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830144A (zh) * 2018-05-03 2018-11-16 华南农业大学 一种基于改进Faster-R-CNN的哺乳母猪姿态识别方法
CN115909403A (zh) * 2022-11-25 2023-04-04 天津大学四川创新研究院 基于深度学习的低成本高精度猪脸识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830144A (zh) * 2018-05-03 2018-11-16 华南农业大学 一种基于改进Faster-R-CNN的哺乳母猪姿态识别方法
CN115909403A (zh) * 2022-11-25 2023-04-04 天津大学四川创新研究院 基于深度学习的低成本高精度猪脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SPSSAU: "12种数据量纲化处理方式", pages 1 - 5, Retrieved from the Internet <URL:https://zhuanlan.zhihu.com/p/225387114> *
罗浩: "基于深度学习的行人重识别算法研究——从无遮挡到遮挡", 《信息科技辑》, no. 01, 15 January 2021 (2021-01-15), pages 83 - 94 *

Similar Documents

Publication Publication Date Title
CN108509915B (zh) 人脸识别模型的生成方法和装置
TWI744283B (zh) 一種單詞的分割方法和裝置
Zhang et al. Ensnet: Ensconce text in the wild
CN109086811B (zh) 多标签图像分类方法、装置及电子设备
CN108154519A (zh) 眼底图像中血管的分割方法、装置及存储介质
CN106875415A (zh) 一种动态背景中弱小动目标的连续稳定跟踪方法
CN110956632B (zh) 钼靶图像中胸大肌区域自动检测方法及装置
US11935213B2 (en) Laparoscopic image smoke removal method based on generative adversarial network
CN112989995B (zh) 文本检测方法、装置及电子设备
AU2020272936B2 (en) Methods and systems for crack detection using a fully convolutional network
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN109977834B (zh) 从深度图像中分割人手与交互物体的方法和装置
CN115861462B (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
CN111539957A (zh) 一种用于目标检测的图像样本生成方法、系统及检测方法
CN114445715A (zh) 一种基于卷积神经网络的农作物病害识别方法
CN111127400A (zh) 一种乳腺病变检测方法和装置
CN114119695A (zh) 一种图像标注方法、装置及电子设备
CN110276759A (zh) 一种基于机器视觉的手机屏坏线缺陷诊断方法
CN116802683A (zh) 图像的处理方法和系统
Balmik et al. A robust object recognition using modified YOLOv5 neural network
Li et al. Fingertip blood collection point localization research based on infrared finger vein image segmentation
CN116434280A (zh) 一种遮挡式猪只识别的模型训练方法及其系统
CN111191584B (zh) 一种人脸识别方法及装置
Liu Research on intelligent visual image feature region acquisition algorithm in Internet of Things framework
Ge et al. Oracle Bone Inscriptions Extraction by Using Weakly Supervised Instance Segmentation under Deep Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination