CN117593764A - 一种家禽鸡品种识别方法及装置 - Google Patents

一种家禽鸡品种识别方法及装置 Download PDF

Info

Publication number
CN117593764A
CN117593764A CN202311664099.0A CN202311664099A CN117593764A CN 117593764 A CN117593764 A CN 117593764A CN 202311664099 A CN202311664099 A CN 202311664099A CN 117593764 A CN117593764 A CN 117593764A
Authority
CN
China
Prior art keywords
image
classification
model
target detection
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311664099.0A
Other languages
English (en)
Inventor
束婧婷
章明
黄君贤
单艳菊
陈智武
陈子欣
姬改革
朱留超
巨晓军
高健峰
徐焕良
刘一帆
乔华欣
屠云洁
黄超
粟永春
邓文聪
蔡日春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Jinling Agriculture And Animal Husbandry Group Co ltd
Nanjing Xingluo Gene Technology Co ltd
Jiangsu Institute Poultry Sciences
Original Assignee
Guangxi Jinling Agriculture And Animal Husbandry Group Co ltd
Nanjing Xingluo Gene Technology Co ltd
Jiangsu Institute Poultry Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Jinling Agriculture And Animal Husbandry Group Co ltd, Nanjing Xingluo Gene Technology Co ltd, Jiangsu Institute Poultry Sciences filed Critical Guangxi Jinling Agriculture And Animal Husbandry Group Co ltd
Priority to CN202311664099.0A priority Critical patent/CN117593764A/zh
Publication of CN117593764A publication Critical patent/CN117593764A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,公开了一种家禽鸡品种识别方法及装置,其中方法包括:获取家禽鸡图像;基于预训练的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像;基于预训练的分类模型,对目标检测图像进行品种分类;分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,特征信息在经自注意力机制调整后用于品种分类。本发明基于目标检测模型和分类模型,识别鸡的位置并提取图像深度信息,人工参与度低,分类效率高。

Description

一种家禽鸡品种识别方法及装置
技术领域
本发明涉及图像识别技术领域,具体涉及一种家禽鸡品种分类方法及装置。
背景技术
鸡是全球范围内最常见的家禽之一,被广泛养殖以供应肉类和蛋类产品。在农业和食品产业中,鸡肉和鸡蛋是主要的蛋白质来源之一。鸡的种类众多,每个品种都具有独特的特征和用途。因此,鸡品种识别对于农业和食品产业具有重要意义。目前,大部分对于鸡品种和性别的分类采用人工检测的方式,需要巨大的人工与时间成本,还容易受到主观判断和人为误差的影响。
利用计算机图像自动化处理的方法,主要包括以下几种:
一、基于阈值分割的方法,该方法通过设置一个或多个阈值,将图像中的像素根据其灰度值或颜色值分为两个或多个不同的类别,存在召回率低,抗噪性差,对于图像质量要求高等问题。
二、基于边缘检测的方法,该方法一般基于Sobel、Canny和Prewitt等检测算法,着重于检测图像中的边缘和轮廓,从而分割不同的物体。但对于复杂背景的图像难以检测边缘,且易受噪声干扰的影响。
三、基于区域生长的方法,该方法是一种基于相似性质的图像分割方法,以种子像素为起点,逐步合并相似像素形成连通区域,直到没有可合并的像素为止,实现图像区域的分割。该方法需要事先对每一个要提取的区域手动给出一个种子点,且对于噪声数据比较敏感。
四、基于深度学习等人工智能的方法,该方法在构建网络模型后,通过大规模数据训练,可以自动提取图像中的特征,从而实现更为精确的图像处理,可以应用于图像分类、物体检测和分割等任务。但其要求大量的数据和计算资源,且模型为黑盒性质,难以解释。
目前直接应用于鸡品种的分类方法较少且鸡品种复杂,不同品种或同品种不同性别的个体相似度较高,已有检测方法难以准确分类目标;拍摄图片内容负复杂,背景信息存在干扰;且现有的方法自动化程度低,可扩展性差,分类效率较低。
发明内容
针对现有技术中的缺陷,本发明提供了一种家禽鸡品种识别方法,以解决目前鸡品种复杂,基于现有检测方法难以准确分类目标的问题。
第一方面,本发明提供的一种家禽鸡品种识别方法,包括:
获取家禽鸡图像;
基于预搭建的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像;
基于预训练的分类模型,对所述目标检测图像进行品种分类;所述分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,所述特征信息在经自注意力机制调整后用于品种分类。
由上述技术方案可知,本发明提供的一种家禽鸡品种识别方法,首先基于目标检测模型能够识别出鸡的位置,并将鸡通过标注框进行标注,能够降低干扰,提高处理准确率;同时本发明将注意力机制融入残差网络模型中提取图像深度信息,人工参与度低。
可选地,所述目标检测模型的训练方法包括:
获取真实处理图像;所述真实处理图像为预先处理形成有真实标注框的图像;
将所述真实处理图像输入所述目标检测模型中,获取预测标注框;
比对所述真实标注框和所述预测标注框,计算所述预测标注框的总损失;
基于所述总损失反向传播以更新模型参数,迭代训练获得所述目标检测模型。
可选地,还包括:所述预测标注框的总损失根据如下公式计算:
其中,为分类损失,/>为置信损失,/>为定位损失,/>、/>、/>分别为三种损失的权重;
其中分类损失和分类损失/>均采用如下公式计算,
其中y=0或1表示预测标注框是否标注有鸡,p表示预测标注框标注有鸡的概率;
其中为预测标注框长宽比的一致性参数表示,/>为权重参数,表示预测标注框长宽比在损失的占比;/>为真实矩形框中心点,/>为预测矩形框中心点,/>为真实矩形框与预测矩形框的中心点的欧式距离,/>为真实矩形框与预测矩形框的最小闭包区域的对角线距离;
其中,和/>代指真实矩形框和预测矩形框的区域,/>表示真实矩形框与预测矩形框的交集区域,/>表示真实矩形框与预测矩形框的并集区域;
其中、/>为真实矩形框的宽和高,/>、/>为预测矩形框的宽和高。
可选地,所述基于预训练的分类模型,对所述目标检测图像进行品种分类,包括:
基于残差块提取特征信息;
将所述特征信息拼接形成整体输入向量,获取整体输入向量/>的自注意力机制输出向量/>
基于输出向量计算每个类别的类别分数,并将所述类别分数转化为每个类别的概率分布。
可选地,每个类别的所述概率分布计算公式为
其中,代表第/>个类别的类别分数,/>代表对类别分数进行自然指数运算,/>代表归一化之后输出的第/>个类别的概率分布,/>代表此分类任务共有K个类别,/>代表对整体类别分数的自然指数结果求和。
可选地,所述分类模型的训练方法,包括:
将样本图像输入所述分类模型,以获取模型分类结果;
基于分类损失函数计算所述模型分类结果与真实分类的分类损失值;
基于所述分类损失值反向传播以更新模型参数,迭代训练获得所述分类模型。
可选地,所述分类损失函数
其中,为样本图像数,/>为类别数,/>表示样本图像/>是否属于类别/>的标签,/>表示样本图像/>属于类别/>的概率。
可选地,所述目标检测图像在输入所述分类模型之前,还进行数据增强处理,包括:
旋转:按照随机旋转角度对像素点位置进行仿射变换,
其中和/>分别代表经过公式变换前后的像素点坐标,/>在预定的参数/>范围内;
翻转:按照预定的翻转概率参数,将图像进行水平翻转;
色彩正则化:调整所述目标检测图像的颜色通道;
随机裁剪:按照预定的裁剪后图像大小及裁剪区域的面积占比范围/>,对所述目标检测图像进行裁剪,并缩放为指定大小。
可选地,还包括:
对所述目标检测图像进行可视化处理获得关联热力图,用以确定关联于分类品种的家禽特征;所述热力图通过梯度信息确定。
第二方面,本发明提供的一种家禽鸡品种识别装置,包括:
图像获取模块,用于获取家禽鸡图像;
目标检测模块,用于基于预训练的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像;
分类模块,用于基于预训练的分类模型,对所述目标检测图像进行品种分类;所述分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,所述特征信息在经自注意力机制调整后用于品种分类。
可选地,还包括目标检测模型训练模块,具体用于:
获取真实处理图像;所述真实处理图像为预先处理形成有真实标注框的图像;
将所述真实处理图像输入所述目标检测模型中,获取预测标注框;
比对所述真实标注框和所述预测标注框,计算所述预测标注框的总损失;
基于所述总损失反向传播以更新模型参数,迭代训练获得所述目标检测模型。
可选地,目标检测模型训练模块,具体还用于:根据如下公式计算所述预测标注框的总损失
其中,为分类损失,/>为置信损失,/>为定位损失,/>、/>、/>分别为三种损失的权重;
其中分类损失和分类损失/>均采用如下公式计算,
其中y=0或1表示预测标注框是否标注有鸡,p表示预测标注框标注有鸡的概率;
其中为预测标注框长宽比的一致性参数表示,/>为权重参数,表示预测标注框长宽比在损失的占比;/>为真实矩形框中心点,/>为预测矩形框中心点,/>为真实矩形框与预测矩形框的中心点的欧式距离,/>为真实矩形框与预测矩形框的最小闭包区域的对角线距离;
其中,和/>代指真实矩形框和预测矩形框的区域,/>表示真实矩形框与预测矩形框的交集区域,/>表示真实矩形框与预测矩形框的并集区域;
其中、/>为真实矩形框的宽和高,/>、/>为预测矩形框的宽和高。
可选地,所述分类模块,具体用于:
基于残差块提取特征信息;
将所述特征信息拼接形成整体输入向量,获取整体输入向量/>的自注意力机制输出向量/>
基于输出向量计算每个类别的类别分数,并将所述类别分数转化为每个类别的概率分布。
可选地,所述分类模块中,每个类别的所述概率分布计算公式为
其中,代表第/>个类别的类别分数,/>代表对类别分数进行自然指数运算,/>代表归一化之后输出的第/>个类别的概率分布,/>代表此分类任务共有K个类别,/>代表对整体类别分数的自然指数结果求和。
可选地,还包括分类模型训练模块,具体用于:
将样本图像输入所述分类模型,以获取模型分类结果;
基于分类损失函数计算所述模型分类结果与真实分类的分类损失值;
基于所述分类损失值反向传播以更新模型参数,迭代训练获得所述分类模型。
可选地,所述分类模块中,所述分类损失函数
其中,为样本图像数,/>为类别数,/>表示样本图像/>是否属于类别/>的标签,/>表示样本图像/>属于类别/>的概率。
可选地,还包括数据增强处理模块,具体用于:
旋转:按照随机旋转角度对像素点位置进行仿射变换,
其中和/>分别代表经过公式变换前后的像素点坐标,/>在预定的参数/>范围内;
翻转:按照预定的翻转概率参数,将图像进行水平翻转;
色彩正则化:调整所述目标检测图像的颜色通道;
随机裁剪:按照预定的裁剪后图像大小及裁剪区域的面积占比范围/>,对所述目标检测图像进行裁剪,并缩放为指定大小。
可选地,所述分类模块,具体还用于:
对所述目标检测图像进行可视化处理获得关联热力图,用以确定关联于分类品种的家禽特征;所述热力图通过梯度信息确定。
第三方面,本发明一实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行计算机程序时实现上述任一种方法的步骤。
第四方面,本发明一实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时实现上述任一种方法的步骤。
采用上述技术方案,本申请具有如下有益效果:
本发明基于目标检测模型能够识别出鸡的位置,并将鸡通过预测标注框进行标注,能够降低干扰,提高处理准确率;同时本发明将注意力机制融入残差网络模型中提取图像深度信息,人工参与度低。
本发明的目标检测模型,在训练时将真实标注框和预测标注框进行比对,预测标注框的损失反映着预测位置和真实位置的差距,在经过反向传播过程更新模型参数并进行迭代训练不断改进模型性能,使得预测位置与真实标注框的位置逐步贴近。
本发明的分类模型,在基于残差块提取到模型特征,并通过自注意力机制对特征进行融合,使得获得的分类模型更加灵活,泛化能力更强。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1示出了本发明实施例提供的一种家禽鸡品种识别方法的流程图;
图2示出了本发明实施例提供的家禽鸡图像的示意图;
图3示出了本发明实施例提供的目标检测图像的示意图;
图4示出了本发明实施例提供的目标检测模型的训练方法的流程图;
图5示出了本发明实施例提供的目标检测模型的结构示意图;
图6示出了本发明实施例提供的分类模型的结构示意图之一;
图7示出了本发明实施例提供的分类模型的结构示意图之二;
图8示出了本发明实施例提供的关联热力图的示意图;
图9示出了本发明实施例提供的一种家禽鸡品种识别装置的结构框图;
图10示出了本发明实施例提供的一种电子设备的结构框图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,本实施例提供了一种家禽鸡品种识别方法,包括:
S101.获取家禽鸡图像。
本实施例需要采集多种鸡品种的雌雄个体图像,为了保证目标检测的准确性,应避免图像拍摄环境有强光照射而造成亮斑,从而影响目标检测的效果;其次,确保数据集包含各种不同的鸡类品种和不同角度的代表性样本,这有助于提升所训练模型的泛化型;另外,应尽可能采集更多鸡品种的图像来进一步提升模型识别效果。
具体地,本实施例共采集了10类常见鸡品种,包含雌雄品种共计20类,共拍摄有效图像7966张,样本分布情况如表1所示,拍摄示例图片如图2所示。
表1
图像采集工作完成后,对采集到的图像进行预处理,剔除不符合要求的图像,如图像模糊、曝光严重等以保证数据质量。接着对数据进行去噪,提高图像的清晰度,再对所有图像进行尺寸标准化,将尺寸统一为2160*3840,方便后续统一处理。另外,为了后续目标检测过程的需要,采用人工或者自动标注的方式标注图像中鸡的位置标签,使用真实标注框将鸡的轮廓进行标注。
本实施例中使用LabelImg软件包对图像进行标注工作。自动标注一般存在误差,最佳方法是采用人工标注方法,生产高质量的标签文件。
所生成的标注文件的标签格式为:
其中,为标签号,默认为0,/>为目标中心位置的坐标,/>为目标矩形框的宽度,/>为目标矩形框的高度。
相比于自动标注,人工标注能够较大提升模型精确度。因此,本实施例采用随机采样的方法对数据集采样并标注,共标注了400张不同品种鸡的图片,采用7:2:1的划分方式对数据集进行划分,即其中280张作为训练集,80张作为验证集,40张作为测试集。
S102.如图3所示,基于预搭建的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像。
其中本步骤所使用的目标检测模型,如图4所示,其训练方法包括:
S201.获取真实处理图像。真实处理图像为步骤S101中训练集的图像,为已经预先通过真实标注框标注了鸡轮廓的图像。
S202.将真实处理图像输入目标检测模型中,获取预测标注框。预测标注框即为目标检测模型的输出。
S203.比对真实标注框和预测标注框,计算预测标注框的总损失。
S204.基于总损失反向传播以更新模型参数,迭代训练获得目标检测模型。
将真实标注框和预测标注框进行比对,预测标注框的损失反映着预测位置和真实位置的差距,在经过反向传播过程更新模型参数并进行迭代训练不断改进模型性能,使得预测位置与真实标准框的位置逐步贴近。
其中,预测标注框的总损失根据如下公式计算:
其中,为分类损失,/>为置信损失,/>为定位损失,/>、/>、/>分别为三种损失的权重;
其中分类损失和分类损失/>均采用如下公式计算,
其中y=0或1表示预测标注框是否标注有鸡,p表示预测标注框标注有鸡的概率;
其中为预测标注框长宽比的一致性参数表示,/>为权重参数,表示预测标注框长宽比在损失的占比;/>为真实矩形框中心点,/>为预测矩形框中心点,/>为真实矩形框与预测矩形框的中心点的欧式距离,/>为真实矩形框与预测矩形框的最小闭包区域的对角线距离;
其中,和/>代指真实矩形框和预测矩形框的区域,/>表示真实矩形框与预测矩形框的交集区域,/>表示真实矩形框与预测矩形框的并集区域;
其中、/>为真实矩形框的宽和高,/>、/>为预测矩形框的宽和高。
本实施例的目标检测模型结构如附图5所示,该模型参数训练轮数,/>训练的批次大小,/>训练图片尺寸,参数设置如下:
模型推理时需要设定置信度阈值及覆盖度阈值/>,其中,置信度阈值为模型损失函数中的置信损失/>的权重,更高的置信度阈值将过滤更多的检测框,仅保留置信度较高概率的检测框;覆盖度阈值为模型损失中的交并集损失/>的权重,覆盖度越低,检测框之间重合的容忍度越低,当覆盖度阈值为0时,将不存在重合的检测框。本实施例中的参数设置如下:
最终模型在验证集上准确率和召回率均达到100%,mAP达到0.998,能够准确在图像中检测并框出鸡所在位置,其中部分测试集模型检测结果如图3所示。
S103.基于预训练的分类模型,对目标检测图像进行品种分类;分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,特征信息在经自注意力机制调整后用于品种分类。
其中,步骤S103具体包括:
S301.基于残差块提取特征信息。
首先,针对所输入的目标检测图像,引入了残差网络作为特征提取器,是的模型能够从图像中提取到相关信息,进而更好的进行后续操作。在该过程中,特征的提取过程是通过多个卷积层和卷积块所实现的,每个卷积块通过一系列卷积操作、激活函数和残差连接,逐渐提取并丰富图像的特征信息。一个卷积块的基本单元主要包含三个部分:卷积层、批量归一化和激活操作。
卷积层使用滤波器与输入的目标检测图像进行逐元素相乘,并将结果相加以生成输出的特征图,卷积层的整体计算公式如下:
其中,和/>分别表示输入和输出相应位置的值,/>为卷积操作的权重参数,即为滤波器,/>为偏置项,用于调整卷积操作的输出。通过对输入的目标检测图像与滤波器进行点乘计算对不同位置图像特征进行深度提取并汇总。
之后,经过批量归一化过程对卷积层的输出进行标准化,计算公式为:
其中,和/>分别代表批量归一化的输入和输出,/>和/>分别代表批量归一化的输入在当前通道的均值和方差,而/>是一个很小的正数,用以防止除数为零,稳定计算。另外,批量归一化还包括可学习的缩放和偏置参数,公式如下:
其中,和/>即为在训练过程中学习并更新的参数,初始值为1和0,/>便是批量归一化所得结果。
最后,使用ReLU作为下一步的激活函数以在计算过程中引入非线性变换,其计算公式为:
其中,为上式的输出结果,/>是本过程的输出结果。本过程执行输入所有负值均变为零,正数保持不变。
上述三个部分构成了卷积块的主要结构,为了能够构建更深的网络结构,提取更深层次的图像特征,同时避免梯度消失问题,在卷积块的基础上引入残差连接的概念并进行适当的网络结构修改使之成为残差网络的基础模块,即残差块。
以卷积块为基础构成主要的卷积层,这也是在一层层网络中要重点训练的部分,它包括两个卷积操作,即在原来卷积块的基础上再加上一层卷积层和归一化层。
第一个卷积过程的计算公式为
可出看出,它是上述卷积块中三个计算过程的组合,用于学习特征表示,其中Conv()表示上述的卷积层,BN()表示上述的批量归一化,ReLU()表示使用ReLU函数进行计算。另外,式中为当前卷积块的输出并作为下一个卷积操作的输入,/>代指输入卷积块的图像特征。
第二个卷积过程用于进一步处理特征并输出,计算公式为
其中,是整个卷积层的最终输出,也是残差块输出内容的重要组成部分。
除此之外,残差块的另一个核心内容为跳跃连接,即将残差块的输入与主要卷积层的输出/>直接相加作为该部分的输出/>,计算公式为
其中是卷积层分支的输出,而/>为残差块的原始输入,/>即为两者的求和结果,再使用ReLU激活函数得到最终的输出,使网络能够更好地学习和表示复杂的特征。
残差块的这一结构使得可以轻松堆叠多个残差块以构建深度神经网络,而不必担心梯度消失问题。梯度可以通过跳跃连接快速传播,而不会被深层卷积层的非线性操作所稀释。
将残差块按照网络深度要求进行堆叠,构建不同的残差块组以代表网络结构的不同阶段,通过这种方式,网络可以逐渐提取和抽象图像的特征,从低级到高级。每个阶段可以学习不同级别的特征,从局部特征到全局特征,使网络具备更强大的表示能力。
S302.将特征信息拼接形成整体输入向量,获取整体输入向量/>的自注意力机制输出向量/>
由于在卷积神经网络中提取图像信息只是分区域依次提取图像特征,并不能考虑到全局图像结构以及像素信息之间的关联性,因此在本方法中构建目标检测模型师引入自注意力机制以调整前端卷积网络所提取的特征序列,这一机制赋予了网络更强大的特征表示能力,允许网络更好的理解图像的内部关联性和全局结构。
自注意力机制的核心思想是利用查询矩阵、键矩阵/>和数值矩阵/>来构建注意力分数矩阵,以便根据特定位置的重要性动态地加权特征。
首先,针对由卷积神经网络所提取的图像特征信息,将所有卷积块的特征拼接成一个整体输入向量,然后得出/>、/>和/>,计算公式为
其中,、/>和/>是要在训练过程中学习的参数,而所得/>、/>和/>矩阵中的每一列都对应一个输入自注意力机制的原始输入向量。
接着利用上式所得计算每两个输入向量之间的相关性,计算结果构成注意力分数矩阵,其计算公式如下:
其中,代表/>的转置矩阵,将/>与/>矩阵的每一个列向量点乘得到向量之间的相关性矩阵/>,/>代表对/>矩阵(i,j)位置的值进行自然指数运算,/>代表在这个过程中得到的注意力分数矩阵,/>代表对第j列的数据进行自然指数运算后的值求和,这样得到基于行的归一化权重,从而确保了每个位置在该行的权重和为1。
最后,将注意力分数矩阵与数值矩阵/>点乘得到最终的输出矩阵,其计算公式如下:
其中,即是所得到的输出矩阵,其中的每个列向量与输入向量一一对应。
通过引入自注意力机制,我们不仅仅是简单地堆叠残差块以提取特征,而是在特定区域内动态地调整特征的权重,使得网络更加灵活、智能地捕获图像的内部关联性,从而提高了网络的性能和泛化能力。
S303.基于输出向量计算每个类别的类别分数,并将类别分数转化为每个类别的概率分布。
由于本实施例提供的方法需要解决的是一个分类任务,因此在残差块的输出后加上一层全连接层,经过此层后得到类别分数。为了将类别分数转化为每个类别的概率分布,对于全连接层的输出使用softmax激活函数进行处理,其计算公式如下:
其中,代表第/>个类别的类别分数,/>代表对类别分数进行自然指数运算,/>代表归一化之后输出的第/>个类别的概率分布,/>代表此分类任务共有K个类别,/>代表对整体类别分数的自然指数结果求和。
本实施例所提供的分类模型的架构,如图6和图7所示。
而对于本实施例的分类模型,训练方法包括:
S401.将样本图像输入分类模型,以获取模型分类结果。
S402.基于分类损失函数计算模型分类结果与真实分类的分类损失值。
本步骤的分类损失值基于分类损失函数进行计算,分类损失值的计算公式为
其中,为样本图像数,/>为类别数,/>表示样本图像/>是否属于类别/>的标签,/>表示样本图像/>属于类别/>的概率。
S403.基于分类损失值反向传播以更新模型参数,迭代训练获得分类模型。
利用上述分类损失函数的计算结果并反向传播计算梯度,接着选择Adam优化器根据梯度更新模型参数,不断重复上述过程,更新迭代网络参数,最终网络逐步收敛至最佳性能。
对分类模型进行训练时,训练过程参数为训练图像尺寸,/>为训练轮次,/>为训练的批次大小,为训练过程使用的优化器种类,/>为控制早停所需的轮数,/>代表训练时所用的损失函数种类。本实施例中参数设置如下:
其中,指交叉熵损失函数,如分类损失函数/>,根据分类损失的计算公式每一轮计算分类损失,使其在不断训练过程中趋向最小,不断循环迭代直至模型在梯度下降过程中逐渐收敛,性能和分类准确率逐步提升,得到最终的分类模型。
本实施例中,为了提升分类模型的性能,用于训练分类模型的目标检测图像在输入分类模型前,还需要:对图像进行数据增强处理。
在目标检测完成后,紧接着对目标检测图像进行数据增强处理以提升图像的多样性,从而提升最终分类模型的泛化性。使模型更好地适应不同的数据变化和噪声,使得训练数据更具有多样性,有助于提升模型的鲁棒性,并减少了过拟合的风险,从而改善模型的性能。在这个过程中主要使用了旋转、翻转、色彩正则化和随机裁剪四种数据增强方式,包括:
(1)旋转:按照随机旋转角度对像素点位置进行仿射变换,
其中和/>分别代表经过公式变换前后的像素点坐标,/>在预定的参数/>范围内;
(2)翻转:按照预定的翻转概率参数,将图像进行水平翻转;有助于模型学习对称目标的不同方向,同时增加数据多样性。
(3)色彩正则化:调整目标检测图像的颜色通道;如亮度、饱和度和对比度,以改变图像的颜色特性,使用颜色平衡、亮度增强等技术使模型对于不同光照和颜色条件下的图像泛化性更强,减少颜色差异对模型性能的影响。
(4)随机裁剪:按照预定的裁剪后图像大小及裁剪区域的面积占比范围/>,对目标检测图像进行裁剪,并缩放为指定大小。有助于模型学习目标在不同位置和尺寸下的特征,同时为模型提供了位姿不确定性的训练数据。
其中,旋转过程的参数限定了图像旋转的范围,/>则限制了图像水平翻转的概率,而/>是裁剪后得到图像的尺寸大小,/>指定裁剪区域的相对大小范围,元组的两个值分别表示最小尺寸和最大尺寸的比例。具体参数设置如下:/>
通过上述四种数据增强方式在本方法中对目标检测图像的处理,提升了模型在面对不同角度、不同颜色等图像时的表现。以上四种数据增强方式可随机次序进行。
本实施例的家禽鸡品种识别方法,还包括:对目标检测图像进行可视化处理获得关联热力图,用以确定关联于分类品种的家禽特征。
为了更直观地了解哪些特征影响着家禽分类,本实施例的品种识别方法使用梯度加权类激活映射技术解释网络模型的预测过程,同时可视化分类模型关注的图像区域,给模型的评估过程提供帮助。在模型预测过程中计算与模型预测的目标类别相关的梯度信息。这些梯度信息表示了模型对于目标类别得分的敏感度,同时可以追踪图像中每个像素对于这个类别的贡献。然后基于这些梯度信息,生成热力图,图中每一个像素都被赋予了一个权重,反映了它对于模型分类决策的重要性。
通过观察模型预测过程的热力图,如图8所示,可以看出分类模型对于该品种的特征关注点集中于头部、足部和翼部,符合人工分类所关注的部位,据此可以看出本方法所训练出的模型分类依据较为合理,且其分类准确率、召回率等均超过现有方法,符合生产需要。
在一个实施例中,如图9所示,提供了一种家禽鸡品种识别装置50,包括:
图像获取模块501,用于获取家禽鸡图像;
目标检测模块502,用于基于预训练的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像;
分类模块503,用于基于预训练的分类模型,对目标检测图像进行品种分类;分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,特征信息在经自注意力机制调整后用于品种分类。
本申请实施例提供的家禽鸡品种识别装置50与上述家禽鸡品种识别方法采用了相同的发明构思,能够取得相同的有益效果,在此不再赘述。
可选地,还包括目标检测模型训练模块,具体用于:
获取真实处理图像;真实处理图像为预先处理形成有真实标注框的图像;
将真实处理图像输入目标检测模型中,获取预测标注框;
比对真实标注框和预测标注框,计算预测标注框的总损失;
基于总损失反向传播以更新模型参数,迭代训练获得目标检测模型。
可选地,目标检测模型训练模块,具体还用于:根据如下公式计算预测标注框的总损失
其中,为分类损失,/>为置信损失,/>为定位损失,/>、/>、/>分别为三种损失的权重;
其中分类损失和分类损失/>均采用如下公式计算,
其中y=0或1表示预测标注框是否标注有鸡,p表示预测标注框标注有鸡的概率;
其中为预测标注框长宽比的一致性参数表示,/>为权重参数,表示预测标注框长宽比在损失的占比;/>为真实矩形框中心点,/>为预测矩形框中心点,/>为真实矩形框与预测矩形框的中心点的欧式距离,/>为真实矩形框与预测矩形框的最小闭包区域的对角线距离;
其中,和/>代指真实矩形框和预测矩形框的区域,/>表示真实矩形框与预测矩形框的交集区域,/>表示真实矩形框与预测矩形框的并集区域;
其中、/>为真实矩形框的宽和高,/>、/>为预测矩形框的宽和高。
可选地,分类模块,具体用于:
基于残差块提取特征信息;
将特征信息拼接形成整体输入向量,获取整体输入向量/>的自注意力机制输出向量/>
基于输出向量计算每个类别的类别分数,并将类别分数转化为每个类别的概率分布。
可选地,分类模块中,每个类别的概率分布计算公式为
其中,代表第/>个类别的类别分数,/>代表对类别分数进行自然指数运算,/>代表归一化之后输出的第/>个类别的概率分布,/>代表此分类任务共有K个类别,/>代表对整体类别分数的自然指数结果求和。
可选地,还包括分类模型训练模块,具体用于:
将样本图像输入分类模型,以获取模型分类结果;
基于分类损失函数计算模型分类结果与真实分类的分类损失值;
基于分类损失值反向传播以更新模型参数,迭代训练获得分类模型。
可选地,分类模块中,分类损失函数
其中,为样本图像数,/>为类别数,/>表示样本图像/>是否属于类别/>的标签,/>表示样本图像/>属于类别/>的概率。
可选地,还包括数据增强处理模块,具体用于:
旋转:按照随机旋转角度对像素点位置进行仿射变换,
其中和/>分别代表经过公式变换前后的像素点坐标,/>在预定的参数/>范围内;
翻转:按照预定的翻转概率参数,将图像进行水平翻转;
色彩正则化:调整目标检测图像的颜色通道;
随机裁剪:按照预定的裁剪后图像大小及裁剪区域的面积占比范围/>,对目标检测图像进行裁剪,并缩放为指定大小。
可选地,分类模块,具体还用于:
对所述目标检测图像进行可视化处理获得关联热力图,用以确定关联于分类品种的家禽特征;热力图通过梯度信息确定。
基于与上述家禽鸡品种识别方法相同的发明构思,本申请实施例还提供了一种电子设备60,如图10所示,该电子设备60可以包括处理器601和存储器602。
处理器601可以是通用处理器,例如中央处理器(CPU)、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器602作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器等等。存储器是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本发明实施例中的存储器602还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
本发明实施例提供了一种计算机可读存储介质,用于储存为上述电子设备所用的计算机程序指令,其包含用于执行上述页面播报的控制方法的程序。
上述计算机存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
以上,以上实施例仅用以对本申请的技术方案进行了详细介绍,但以上实施例的说明只是用于帮助理解本发明实施例的方法,不应理解为对本发明实施例的限制。本技术领域的技术人员可轻易想到的变化或替换,都应涵盖在本发明实施例的保护范围之内。

Claims (10)

1.一种家禽鸡品种识别方法,其特征在于,包括:
获取家禽鸡图像;
基于预训练的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像;
基于预训练的分类模型,对所述目标检测图像进行品种分类;所述分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,所述特征信息在经自注意力机制调整后用于品种分类。
2.根据权利要求1所述的方法,其特征在于,所述目标检测模型的训练方法包括:
获取真实处理图像;所述真实处理图像为预先处理形成有真实标注框的图像;
将所述真实处理图像输入所述目标检测模型中,获取预测标注框;
比对所述真实标注框和所述预测标注框,计算所述预测标注框的总损失;
基于所述总损失反向传播以更新模型参数,迭代训练获得所述目标检测模型。
3.根据权利要求2所述的方法,其特征在于,还包括:所述预测标注框的总损失根据如下公式计算:
其中,为分类损失,/>为置信损失,/>为定位损失,/>、/>、/>分别为三种损失的权重;
其中分类损失和分类损失/>均采用如下公式计算,
其中y=0或1表示预测标注框是否标注有鸡,p表示预测标注框标注有鸡的概率;
其中为预测标注框长宽比的一致性参数表示,/>为权重参数,表示预测标注框长宽比在损失的占比;/>为真实矩形框中心点,/>为预测矩形框中心点,/>为真实矩形框与预测矩形框的中心点的欧式距离,/>为真实矩形框与预测矩形框的最小闭包区域的对角线距离;
其中,和/>代指真实矩形框和预测矩形框的区域,/>表示真实矩形框与预测矩形框的交集区域,/>表示真实矩形框与预测矩形框的并集区域;
其中、/>为真实矩形框的宽和高,/>、/>为预测矩形框的宽和高。
4.根据权利要求3所述的方法,其特征在于,所述基于预训练的分类模型,对所述目标检测图像进行品种分类,包括:
基于残差块提取特征信息;
将所述特征信息拼接形成整体输入向量,获取整体输入向量/>的自注意力机制输出向量/>
基于输出向量计算每个类别的类别分数,并将所述类别分数转化为每个类别的概率分布。
5.根据权利要求4所述的方法,其特征在于,每个类别的所述概率分布计算公式为
其中,代表第/>个类别的类别分数,/>代表对类别分数进行自然指数运算,/>代表归一化之后输出的第/>个类别的概率分布,/>代表此分类任务共有K个类别,/>代表对整体类别分数的自然指数结果求和。
6.根据权利要求4所述的方法,其特征在于,所述分类模型的训练方法,包括:
将样本图像输入所述分类模型,以获取模型分类结果;
基于分类损失函数计算所述模型分类结果与真实分类的分类损失值;
基于所述分类损失值反向传播以更新模型参数,迭代训练获得所述分类模型。
7.根据权利要求6所述的方法,其特征在于,所述分类损失函数
其中,为样本图像数,/>为类别数,/>表示样本图像/>是否属于类别/>的标签,表示样本图像/>属于类别/>的概率。
8.根据权利要求1所述的方法,其特征在于,所述目标检测图像在输入所述分类模型之前,还进行数据增强处理,包括:
旋转:按照随机旋转角度对像素点位置进行仿射变换,
其中和/>分别代表经过公式变换前后的像素点坐标,/>在预定的参数/>范围内;
翻转:按照预定的翻转概率参数,将图像进行水平翻转;
色彩正则化:调整所述目标检测图像的颜色通道;
随机裁剪:按照预定的裁剪后图像大小及裁剪区域的面积占比范围/>,对所述目标检测图像进行裁剪,并缩放为指定大小。
9.根据权利要求4所述的方法,其特征在于,还包括:
对所述目标检测图像进行可视化处理获得关联热力图,用以确定关联于分类品种的家禽特征;所述热力图通过梯度信息确定。
10.一种家禽鸡品种识别装置,其特征在于,包括:
图像获取模块,用于获取家禽鸡图像;
目标检测模块,用于基于预训练的目标检测模型,识别图像中鸡的位置信息并通过预测标注框进行标注,获得目标检测图像;
分类模块,用于基于预训练的分类模型,对所述目标检测图像进行品种分类;所述分类模型以卷积神经网络为基础,并加入残差网络以提取特征信息,所述特征信息在经自注意力机制调整后用于品种分类。
CN202311664099.0A 2023-12-06 2023-12-06 一种家禽鸡品种识别方法及装置 Pending CN117593764A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311664099.0A CN117593764A (zh) 2023-12-06 2023-12-06 一种家禽鸡品种识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311664099.0A CN117593764A (zh) 2023-12-06 2023-12-06 一种家禽鸡品种识别方法及装置

Publications (1)

Publication Number Publication Date
CN117593764A true CN117593764A (zh) 2024-02-23

Family

ID=89918192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311664099.0A Pending CN117593764A (zh) 2023-12-06 2023-12-06 一种家禽鸡品种识别方法及装置

Country Status (1)

Country Link
CN (1) CN117593764A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021061045A2 (zh) * 2019-09-27 2021-04-01 商汤国际私人有限公司 堆叠物体的识别方法及装置、电子设备和存储介质
WO2022001489A1 (zh) * 2020-06-28 2022-01-06 北京交通大学 一种无监督域适应的目标重识别方法
CN115049966A (zh) * 2022-07-06 2022-09-13 杭州梦视网络科技有限公司 一种基于GhostNet的轻量化YOLO宠物识别方法
CN116883996A (zh) * 2023-09-01 2023-10-13 武汉互创联合科技有限公司 基于旋转等变网络的胚胎发育阶段预测与质量评估系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021061045A2 (zh) * 2019-09-27 2021-04-01 商汤国际私人有限公司 堆叠物体的识别方法及装置、电子设备和存储介质
WO2022001489A1 (zh) * 2020-06-28 2022-01-06 北京交通大学 一种无监督域适应的目标重识别方法
CN115049966A (zh) * 2022-07-06 2022-09-13 杭州梦视网络科技有限公司 一种基于GhostNet的轻量化YOLO宠物识别方法
CN116883996A (zh) * 2023-09-01 2023-10-13 武汉互创联合科技有限公司 基于旋转等变网络的胚胎发育阶段预测与质量评估系统

Similar Documents

Publication Publication Date Title
Ngugi et al. Tomato leaf segmentation algorithms for mobile phone applications using deep learning
Li et al. SAR image change detection using PCANet guided by saliency detection
Kamal et al. Automatic traffic sign detection and recognition using SegU-Net and a modified Tversky loss function with L1-constraint
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
CN110135503B (zh) 一种装配机器人零件深度学习识别方法
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
Jung et al. A unified spectral-domain approach for saliency detection and its application to automatic object segmentation
CN111652317B (zh) 基于贝叶斯深度学习的超参数图像分割方法
CN112598713A (zh) 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法
CN110781921A (zh) 一种基于深度残差网络与迁移学习的毒蕈图像识别方法和装置
CN110909618B (zh) 一种宠物身份的识别方法及装置
CN113076871A (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
WO2020077940A1 (en) Method and device for automatic identification of labels of image
CN108038515A (zh) 无监督多目标检测跟踪方法及其存储装置与摄像装置
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN111177447B (zh) 一种基于深度网络模型的行人图像识别方法
Fan et al. A novel sonar target detection and classification algorithm
Tan et al. Rapid fine-grained classification of butterflies based on FCM-KM and mask R-CNN fusion
Rosales et al. Faster r-cnn based fish detector for smart aquaculture system
CN109145770B (zh) 一种基于多尺度特征融合网络与定位模型相结合的麦蜘蛛自动计数方法
Singh et al. Performance Analysis of CNN Models with Data Augmentation in Rice Diseases
Bao et al. An improved DenseNet model to classify the damage caused by cotton aphid
CN113744280A (zh) 图像处理方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination