CN116228734B - 一种家禽毛孔特征识别方法、装置及设备 - Google Patents
一种家禽毛孔特征识别方法、装置及设备 Download PDFInfo
- Publication number
- CN116228734B CN116228734B CN202310255375.1A CN202310255375A CN116228734B CN 116228734 B CN116228734 B CN 116228734B CN 202310255375 A CN202310255375 A CN 202310255375A CN 116228734 B CN116228734 B CN 116228734B
- Authority
- CN
- China
- Prior art keywords
- frame
- pores
- pore
- actual
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像目标检测技术领域,提供了一种家禽毛孔特征识别方法、装置及设备。其中,本发明提供的方法包括:获取家禽的毛孔图像;基于毛孔检测模型确定毛孔图像中的目标毛孔;将目标毛孔的位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔;在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征。本发明通过依据家禽毛孔特征的霍夫曲线空间对直线进行投票,解决现有自动化监测方法在家禽毛孔识别时,抗噪性差及漏检错检率高的问题。
Description
技术领域
本发明涉及图像目标检测技术领域,具体涉及一种家禽毛孔特征识别方法、装置及设备。
背景技术
家禽的毛孔特征能够反应出家禽的品质,生理状态,经济价值,是家禽品种培育过程中重要的参考指标。传统的家禽毛孔特征统计方法采用人工观测统计,需要巨大的人工成本与时间成本。随着计算机图像处理技术的发展,衍生出一系列应用于医疗领域的皮肤、毛孔的自动化检测方法。其中,主要包含基于阈值分割、基于模板匹配和基于交点检测、特征描述这三种方法,(1)基于阈值分割的方法:该方法一般基于像素级阈值分割、滤波框阈值分割、大津阈值分割等算法,存在召回率低,抗噪性差,对于图像质量要求高等问题。(2)基于模板匹配的方法:该方法一般使用事先准备好的模板素材与图像进行匹配比对,比对方法包括色彩匹配、方差匹配等,存在召回率低,数据依赖强,耗时较长等问题。(3)基于角点检测、特征描述的方法:该方法一般基于Harris角点检测及其衍生检测方法,SIFT算子等特征描述器检测方法,构建检测目标的图像特征,在检测时,通过对图像特征的分类模型来检测目标。但存在无法适应尺寸变化、错检率高等问题。
目前已有的自动化检测方法在家禽毛孔识别上的应用较少,且都需要人工二次校对,并不能缓解传统生产方式中存在的问题。而针对于家禽的毛孔特征,仍存在的下列问题:一、已有自动化检测方法中,由于相关算法都是以固定尺寸的框检测灰度、梯度等特征,导致均无法解决图像的尺寸变化问题。二、由于毛孔的颜色与皮肤近似,角点等特征不明显,已有方法存在错检率高的问题。三、毛孔比较微小,且在皮肤中密集存在,数量较多,而已有方法中,若是标注框选择太小则会缺失部分毛孔的图像特征,选择太大则会包含多个毛孔导致图像特征错误,其都具有漏检率高的问题。四、家禽皮肤存在较多羽毛,杂质,已有方法无法解决遮挡等噪声影响,具有抗噪性差的问题。
因此,亟需一种适用于家禽毛孔特征识别的方法,以解决现有自动化监测方法在家禽毛孔特征识别时,抗噪性差及漏检错检率高的问题。
发明内容
针对现有技术中的缺陷,本发明提供家禽毛孔特征识别方法、装置及设备,以解决现有自动化监测方法在家禽毛孔识别时,抗噪性差及漏检错检率高的问题。
第一方面,本发明提供的家禽毛孔特征识别方法,包括:
可选地,所述毛孔检测模型的训练方法包括:
获取预标注图像;所述预标注图像为通过实际标注框对实际毛孔进行预标注的毛孔图像;
将所述预标注图像输入所述毛孔检测模型中生成预测标注框;
根据实际标注框确定预测标注框总损失,并反向传播更新参数,完成所述毛孔检测模型的训练。
可选地,所述预测标注框的尺寸的确定方法包括:
对所述实际标注框进行聚类计算,确定若干个聚类中心;
根据所述实际标注框的坐标以及所述聚类中心的坐标,计算聚类损失;
确定所述预测标注框的尺寸。
可选地,所述预测标注框总损失包括定位损失,所述定位损失根据所述实际标注框和所述预测标注框确定,
当所述实际标注框和所述预测标注框的交集不为0时,定位损失;其中,/>表示实际标注框与预测标注框的交集区域,/>表示实际标注框与预测标注框的并集区域;
所述实际标注框和所述预测标注框的交集为0时,定位损失;其中,/>为矩形长宽比的一致性参数表示,/>表示标注框长宽比在损失中的占比,/>为实际标注框中心点,/>为预测标注框中心点,/>为实际标注框与预测标注框的中心点的欧式距离,/>为实际标注框与预测标注框的最小闭包区域的对角线距离。
可选地,所述预测标注框总损失还包括分类损失和置信损失/>,所述置信损失/>,所述分类损失/>,p为预测标注框标注有目标毛孔的概率,y为输入图像对应的标签,y=1表示预测标注框标注毛孔,y=0表示预测标注框标注背景。
可选地,在完成所述毛孔检测模型的训练之后,还包括:
获取未标注图像;
将所述未标注图像输入所述毛孔检测模型,通过预测标注框标注所述未标注图像中的毛孔;
根据所述预测标注框和所述未标注图像中毛孔的关系,确定覆盖度阈值和置信度阈值;所述覆盖度阈值用于过滤IOU值,所述置信度阈值用于过滤预测标注框标注有目标毛孔的概率p值。
可选地,所述将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔,包括:
将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线;
基于第一预设阈值和第二预设阈值,过滤不符合直线条件的目标毛孔;所述第一预设阈值为直线的宽度最大值,所述第二预设阈值为直线上目标毛孔的最小数量。
可选地,所述在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征,包括:
当滑动窗口内目标毛孔数量最大时,基于滑动窗口内毛孔数量确定毛孔密度。
第二方面,本发明提供的家禽毛孔特征识别装置,包括:
图像获取模块,用于获取家禽的毛孔图像;
检测模块,用于基于毛孔检测模型确定所述毛孔图像中的目标毛孔;
过滤模块,用于将所述位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔;
特征识别模块,用于在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征。
可选地,所述检测模块中,具体还用于:
获取预标注图像;所述预标注图像为通过实际标注框对实际毛孔进行预标注的毛孔图像;
将所述预标注图像输入所述毛孔检测模型中生成预测标注框;
根据实际标注框确定预测标注框总损失,并反向传播更新参数,完成所述毛孔检测模型的训练。
可选地,所述检测模块中,具体还用于:
对所述实际标注框进行聚类计算,确定若干个聚类中心;
根据所述实际标注框的坐标以及所述聚类中心的坐标,计算聚类损失;
确定所述预测标注框的尺寸。
可选地,所述检测模块中,所述预测标注框总损失包括定位损失,所述定位损失根据所述实际标注框和所述预测标注框确定,
当所述实际标注框和所述预测标注框的交集不为0时,定位损失;其中,/>表示实际标注框与预测标注框的交集区域,/>表示实际标注框与预测标注框的并集区域;
所述实际标注框和所述预测标注框的交集为0时,定位损失;其中,/>为矩形长宽比的一致性参数表示,/>表示标注框长宽比在损失中的占比,/>为实际标注框中心点,/>为预测标注框中心点,/>为实际标注框与预测标注框的中心点的欧式距离,/>为实际标注框与预测标注框的最小闭包区域的对角线距离。
可选地,所述检测模块中,所述预测标注框总损失还包括分类损失和置信损失/>,所述置信损失/>,所述分类损失/>,p为预测标注框标注有目标毛孔的概率,y为输入图像对应的标签,y=1表示预测标注框标注毛孔,y=0表示预测标注框标注背景。
可选地,所述检测模块中,具体还用于:
获取未标注图像;
将所述未标注图像输入所述毛孔检测模型,通过预测标注框标注所述未标注图像中的毛孔;
根据所述预测标注框和所述未标注图像中毛孔的关系,确定覆盖度阈值和置信度阈值;所述覆盖度阈值用于过滤IOU值,所述置信度阈值用于过滤预测标注框标注有目标毛孔的概率p值。
可选地,所述过滤模块,具体还用于:
将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线;
基于第一预设阈值和第二预设阈值,过滤不符合直线条件的目标毛孔;所述第一预设阈值为直线的宽度最大值,所述第二预设阈值为直线上目标毛孔的最小数量。
可选地,所述特征识别模块,具体还用于:
当滑动窗口内目标毛孔数量最大时,基于滑动窗口内毛孔数量确定毛孔密度。
第三方面,本发明一实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行计算机程序时实现上述任一种方法的步骤。
第四方面,本发明一实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时实现上述任一种方法的步骤。
采用上述技术方案,本申请具有如下有益效果:
(1)由于毛孔检测模型确定的目标毛孔可能存在部分错检的情况,本发明将基于模型检测到的目标毛孔的位置坐标通过转换为霍夫曲线空间中的曲线进行投票,以过滤不满足直线条件的目标毛孔。由于家禽毛孔分布具有网格状特征,可以网格直线上点的数量来过滤错误检测的目标,从而提高基于模型所确定的目标毛孔的准确,使后续毛孔特征符合网格化特点,降低了错检率。
(2)由于毛孔比较微小,且在皮肤中密集存在,数量较多,而已有方法中,若是标注框选择太小则会缺失部分毛孔的图像特征,选择太大则会包含多个毛孔导致图像特征错误,其都具有漏检率高的问题。本发明克服了现有算法基于固定标注框检测灰度、梯度等特征导致的无法适应不同图像的尺寸变化的问题,通过针对不同图像大小的预测标注框,提高了对于毛孔检测的精确度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1示出了本发明实施例提供的一种家禽毛孔特征识别方法的流程图;
图2a示出了本发明实施例提供的拍摄图像的示意图;
图2b示出了本发明实施例提供的另一拍摄图像的示意图;
图3a示出了本发明实施例提供的毛孔检测模型的输出示意图;
图3b示出了本发明实施例提供的毛孔检测模型的另一输出示意图;
图4示出了本发明实施例提供的一种家禽毛孔特征识别方法的流程图;
图5示出了本发明实施例提供的毛孔检测模型的架构示意图;
图6示出了本发明实施例所提供的一种家禽毛孔特征识别装置的结构框图;
图7示出了本发明实施例所提供的电子设备的结构框图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
为了解决本发明在背景技术中提到的问题,即现有自动化检测方法在家禽毛孔检测应用中,抗噪性能差、漏检错检率高的问题,本实施例提供了一种家禽毛孔特征识别方法,如图1所示,包括:
S101、获取家禽的毛孔图像。
具体在本实施例中,所拍摄的家禽毛孔图像,图像尺寸应不小于640*640像素,为了保证目标检测的准确性,应确保拍摄图像尽可能包含实际生产中可能出现的各种情形,例如多角度,多光源等,并且拍摄图像应不少于40张。同时拍摄图像将进行数据集的划分,一般将图像划分为训练集,验证集和测试集。本实例中采用7:1:2的划分方式,即28张带有标注的图像用于训练,4张带有标注的图像用于验证,8张无标注图像用于测试。
同时,图像采集中拍摄区域内的最佳毛孔个数根据拍摄分辨率应满足:
(1)
其中,为毛孔个数,r为拍摄设备分辨率。
具体在本实施例中,获取到分辨率为2560*2560的毛孔图像,根据公式(1)计算所得,图像中应不超过6553600/40000=163个毛孔,拍摄所得的毛孔图像中平均毛孔数约为50-60个,合适的毛孔数量将提升模型的准确率。
S102、基于毛孔检测模型确定毛孔图像中的目标毛孔。
毛孔检测模型基于目标检测算法搭建,模型输入为图像,模型输出为检测到的目标毛孔,基于毛孔检测模型预测毛孔图像中的目标毛孔,参见图2a-2b,图2a-2b为拍摄示例照片;基于毛孔检测模型确定的目标毛孔如图3a所示。
S103、将目标毛孔的位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔。
由于毛孔检测模型确定的目标毛孔可能存在部分错检的情况,将基于模型检测到的目标毛孔的位置坐标通过转换为霍夫曲线空间中的曲线进行投票,以过滤不满足直线条件的目标毛孔。由于家禽毛孔分布具有网格状特征,可以网格直线上点的数量来过滤错误检测的目标,从而提高基于模型所确定的目标毛孔的准确,使后续毛孔特征符合网格化特点,与家禽毛孔本身的特征匹配,降低了错检率。
S104、在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征。
在一个具体的实施方式中,如图4所示,毛孔检测模型的训练方法包括:
S201、获取预标注图像;预标注图像为通过实际标注框对实际毛孔进行预标注的毛孔图像。
具体地,本步骤采用人工或者自动标注的方式标注图像中毛孔的位置并生成标签文件。本实施例中使用LabelImg软件包对训练集中拍摄图像进行标注工作。自动标注方法一般存在误差,更好的方式仍是采用人工标注方法,生成高质量的标签文件,相比于自动标注,人工标注能够较大提升模型精准度。因此,本实施例采用人工标注,共标注图像32张。
在步骤S202之前,还会根据实际标注框生成与预标注图像关联的标注文件,标注文件的标签格式为:
(2)
其中,为标签号,/>为实际标注框中心位置的x坐标,/>为实际标注框中心位置的y坐标,/>为实际标注框的宽度,/>为实际标注框的高度。
标签号代表分类标签的代码,因为模型原理中可能检测目标不止一个,但在本实施例中的应用值作为检测毛孔,故为一统一值。
S202、将预标注图像输入毛孔检测模型中生成预测标注框。
本步骤中,在根据公式(2)生成图像对应的标签文件后,需要根据标签文件确定不同图像尺度下的最佳标注框大小,基于此,在不同尺寸的毛孔图像输入至毛孔检测模型中时,模型也会输出不同的预测标注框标注目标毛孔以适用于不同尺寸的毛孔图像。预测标注框的尺寸根据实际标注框的尺寸确定,具体的确定方法包括:
S301、对实际标注框进行聚类计算,确定若干个聚类中心。
S302、根据实际标注框的坐标以及聚类中心的坐标,计算聚类损失。
聚类损失的计算公式为:
(3)
其中,为损失,/>为实际标注框的坐标,/>为聚类中心的坐标。
S303、确定预测标注框的尺寸。根据公式(3)对所有实际标注框进行聚类计算,本实施例中共计算得到9个不同的标注框大小以匹配大中小三种尺寸的图像。
由于毛孔比较微小,且在皮肤中密集存在,数量较多,而已有方法中,若是标注框选择太小则会缺失部分毛孔的图像特征,选择太大则会包含多个毛孔导致图像特征错误,其都具有漏检率高的问题。基于此,本实施例克服了现有算法基于固定标注框检测灰度、梯度等特征,无法适应不同图像的尺寸变化的问题,提高了对于毛孔检测的精确度。
其中,需要设置参数分类个数,标准尺寸大小/>,迭代次数/>。设置如下:
。
S203、根据实际标注框确定预测标注框总损失,并反向传播更新参数,完成毛孔检测模型的训练。
模型结构如图5所示。该模型参数训练轮数,/>训练的批大小,训练图片尺寸,训练线程数设置如下:
。
其中步骤S203中,预测标注框总损失包括定位损失、分类损失/>和置信损失/>;
其中,定位损失根据所述实际标注框和所述预测标注框确定,
当所述实际标注框和所述预测标注框的交集不为0时,定位损失
(4)
其中,表示实际标注框与预测标注框的交集区域,/>表示实际标注框与预测标注框的并集区域。
当两者交集为0时,公式(4)求得的结果为0,无法表示距离损失,故在交集不为0时,引入以下公式:
(5)
为预测标注框长宽比的一致性参数表示。
(6)
为权重参数,表示预测标注框长宽比在损失中的占比。
故实际标注框和预测标注框的交集为0时,定位损失
(7)
其中,为实际标注框中心点,/>为预测标注框中心点,/>为实际标注框与预测标注框的中心点的欧式距离,/>为实际标注框与预测标注框的最小闭包区域的对角线距离。
预测标注框的置信损失
(8)
为预测标注框标注有目标毛孔的概率,/>为输入图像对应的标签,/>表示预测标注框标注毛孔,/>表示预测标注框标注背景。
分类损失
(9)
在本实施例中,置信损失对和/>都进行计算,即预测标注框标注毛孔和背景都进行计算,分类损失只计算预测标注框标注毛孔的情况。
基于此,任一预测标注框的总损失为
(10)
分别为分类损失、定位损失和置信损失的权值,可以通过人为设定确定。
进一步地,在完成毛孔检测模型的训练之后,还包括:
获取未标注图像;未标注图像为前期和预标注图像一同拍摄的图像。不同的是,未标注图像不进行预标注。
之后,将未标注图像输入毛孔检测模型,未标注图像即为测试集中的拍摄图像,通过预测标注框标注未标注图像中的毛孔;根据预测标注框和未标注图像中毛孔的关系,确定覆盖度阈值和置信度阈值;覆盖度阈值用于过滤IOU值,置信度阈值用于过滤预测标注框标注有目标毛孔的概率p值。
在计算分类损失和置信损失时,如公式(8)和(9),会输出预测标注框标注有目标毛孔的概率p值,p值为把模型输出层的输出使用激活函数(其中x为模型输出层的输出)计算后的值,其函数的阈值区间是(0,1),置信度阈值/>用于对p值进行筛选,更高的置信度阈值将过滤更多的标注框,仅保留置信度较高概率的标注框。覆盖度阈值/>用于过滤定位损失中的交并集损失IOU,覆盖度越低,标注框之间重合的容忍度越低,当覆盖度阈值为0时,将不存在重合的标注框。如图3b,当在覆盖度阈值过大时,模型输出的预测标注框存在重叠,那么一个毛孔将会被多个预测标注框标注,影响特征识别的效果。
在本实施例中,参数设置为:。
具体地,步骤S103包括:
S103.1、将目标毛孔的位置坐标转换为霍夫曲线空间中曲线,具体依据公式(11)进行变换,
(11)
其中,表示直线到原点的距离直线与X轴的夹角,/>表示直线到原点的距离,表示图像对角线的距离。
S103.2、基于第一预设阈值和第二预设阈值,过滤不符合直线条件的目标毛孔;第一预设阈值为直线的宽度最大值,第二预设阈值为直线上目标毛孔的最小数量。在具体实施时,参数设定为第一预设阈值,第二预设阈值/>。
步骤S104,具体包括:
当滑动窗口内目标毛孔数量最大时,基于滑动窗口内毛孔数量确定毛孔密度。对检测目标进行过滤后,利用已检测的目标毛孔统计毛孔密度参数。作滑动窗口对全图像滑动计算,计算滑动窗口内毛孔的数量,当滑动窗口内毛孔数量最多时,返回该区域内的毛孔密度/>,计算公式为:/>。/>和/>为滑动窗口的尺寸。
在本实施例中,将步骤S103中的直线条件即霍夫变换检测到的直线长度作为滑动窗口的边长,即滑动窗口为边长为/>的正方形。其中,霍夫变换检测到的直线可能是一个直线方程,也可能是一个线段,具体可以根据投票时满足步骤S103.2第二预设阈值所确定的最远的两个目标毛孔之间的距离作为直线长度l。基于此确定的滑动窗口,可以保证数据的多样性,并尽可能的减少数据计算量,提高毛孔特征识别的高效性。
需要说明的是,毛孔图像本身出拍摄到的裸露皮肤之外,可能还包含羽毛、背景等,滑动窗口只能截取图像的一部分,因此当滑动窗口内毛孔数量最多时,可以认为该部分全部为皮肤图片,此时计算毛孔数量密度才是正确的,进而提高了密度计算的准确性。
在一个实施例中,提供了一种家禽毛孔特征识别装置40,如图6所示,包括:
图像获取模块401,用于获取家禽的毛孔图像;
检测模块402,用于基于毛孔检测模型确定所述毛孔图像中的目标毛孔;
过滤模块403,用于将所述位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔;
特征识别模块404,用于在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征。
本申请实施例提供的家禽毛孔特征识别装置40与上述家禽毛孔特征识别方法采用了相同的发明构思,能够取得相同的有益效果,在此不再赘述。
可选地,所述检测模块中,具体还用于:
获取预标注图像;所述预标注图像为通过实际标注框对实际毛孔进行预标注的毛孔图像;
将所述预标注图像输入所述毛孔检测模型中生成预测标注框;
根据实际标注框确定预测标注框总损失,并反向传播更新参数,完成所述毛孔检测模型的训练。
可选地,所述检测模块中,具体还用于:
对所述实际标注框进行聚类计算,确定若干个聚类中心;
根据所述实际标注框的坐标以及所述聚类中心的坐标,计算聚类损失;
确定所述预测标注框的尺寸。
可选地,所述检测模块中,所述预测标注框总损失包括定位损失,所述定位损失根据所述实际标注框和所述预测标注框确定,
当所述实际标注框和所述预测标注框的交集不为0时,定位损失;其中,/>表示实际标注框与预测标注框的交集区域,/>表示实际标注框与预测标注框的并集区域;
所述实际标注框和所述预测标注框的交集为0时,定位损失;其中,/>为矩形长宽比的一致性参数表示,/>表示标注框长宽比在损失中的占比,/>为实际标注框中心点,/>为预测标注框中心点,/>为实际标注框与预测标注框的中心点的欧式距离,/>为实际标注框与预测标注框的最小闭包区域的对角线距离。
可选地,所述检测模块中,所述预测标注框总损失还包括分类损失和置信损失/>,所述置信损失/>,所述分类损失/>,p为预测标注框标注有目标毛孔的概率,y为输入图像对应的标签,y=1表示预测标注框标注毛孔,y=0表示预测标注框标注背景。
可选地,所述检测模块中,具体还用于:
获取未标注图像;
将所述未标注图像输入所述毛孔检测模型,通过预测标注框标注所述未标注图像中的毛孔;
根据所述预测标注框和所述未标注图像中毛孔的关系,确定覆盖度阈值和置信度阈值;所述覆盖度阈值用于过滤IOU值,所述置信度阈值用于过滤预测标注框标注有目标毛孔的概率p值。
可选地,所述过滤模块,具体还用于:
将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线;
基于第一预设阈值和第二预设阈值,过滤不符合直线条件的目标毛孔;所述第一预设阈值为直线的宽度最大值,所述第二预设阈值为直线上目标毛孔的最小数量。
可选地,所述特征识别模块,具体还用于:
当滑动窗口内目标毛孔数量最大时,基于滑动窗口内毛孔数量确定毛孔密度。
基于与上述家禽特征识别方法相同的发明构思,本申请实施例还提供了一种电子设备50,如图7所示,该电子设备50可以包括处理器501和存储器502。
处理器501可以是通用处理器,例如中央处理器(CPU)、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器502作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random Access Memory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本发明实施例中的存储器502还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
本发明实施例提供了一种计算机可读存储介质,用于储存为上述电子设备所用的计算机程序指令,其包含用于执行上述页面播报的控制方法的程序。
上述计算机存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
以上,以上实施例仅用以对本申请的技术方案进行了详细介绍,但以上实施例的说明只是用于帮助理解本发明实施例的方法,不应理解为对本发明实施例的限制。本技术领域的技术人员可轻易想到的变化或替换,都应涵盖在本发明实施例的保护范围之内。
Claims (8)
1.一种家禽毛孔特征识别方法,其特征在于,包括:
获取家禽的毛孔图像;
基于毛孔检测模型确定所述毛孔图像中的目标毛孔;所述毛孔检测模型的训练方法包括:
获取预标注图像;所述预标注图像为通过实际标注框对实际毛孔进行预标注的毛孔图像;
将所述预标注图像输入所述毛孔检测模型中生成预测标注框;
根据实际标注框确定预测标注框总损失,并反向传播更新参数,完成所述毛孔检测模型的训练;所述预测标注框总损失包括定位损失,所述定位损失根据所述实际标注框和所述预测标注框确定,
当所述实际标注框和所述预测标注框的交集不为0时,定位损失;其中,/>表示实际标注框与预测标注框的交集区域,/>表示实际标注框与预测标注框的并集区域;
所述实际标注框和所述预测标注框的交集为0时,定位损失;其中,/>为矩形长宽比的一致性参数表示,/>表示标注框长宽比在损失中的占比,/>为实际标注框中心点,/>为预测标注框中心点,/>为实际标注框与预测标注框的中心点的欧式距离,/>为实际标注框与预测标注框的最小闭包区域的对角线距离;
将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔;
在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征。
2.根据权利要求1所述的方法,其特征在于,所述预测标注框的尺寸的确定方法包括:
对所述实际标注框进行聚类计算,确定若干个聚类中心;
根据所述实际标注框的坐标以及所述聚类中心的坐标,计算聚类损失;
确定所述预测标注框的尺寸。
3.根据权利要求2所述的方法,其特征在于,所述预测标注框总损失还包括分类损失和置信损失/>,所述置信损失/>,所述分类损失/>,p为预测标注框标注有目标毛孔的概率,y为输入图像对应的标签,y=1表示预测标注框标注毛孔,y=0表示预测标注框标注背景。
4.根据权利要求3所述的方法,其特征在于,在完成所述毛孔检测模型的训练之后,还包括:
获取未标注图像;
将所述未标注图像输入所述毛孔检测模型,通过预测标注框标注所述未标注图像中的毛孔;
根据所述预测标注框和所述未标注图像中毛孔的关系,确定覆盖度阈值和置信度阈值;所述覆盖度阈值用于过滤IOU值,所述置信度阈值用于过滤预测标注框标注有目标毛孔的概率p值。
5.根据权利要求1所述的方法,其特征在于,所述将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔,包括:
将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线;
基于第一预设阈值和第二预设阈值,过滤不符合直线条件的目标毛孔;所述第一预设阈值为直线的宽度最大值,所述第二预设阈值为直线上目标毛孔的最小数量。
6.根据权利要求1或5所述的方法,其特征在于,所述在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征,包括:
当滑动窗口内目标毛孔数量最大时,基于滑动窗口内毛孔数量确定毛孔密度。
7.一种家禽毛孔特征识别装置,其特征在于,包括:
图像获取模块,用于获取家禽的毛孔图像;
检测模块, 用于基于毛孔检测模型确定所述毛孔图像中的目标毛孔;所述毛孔检测模型的训练方法包括:
获取预标注图像;所述预标注图像为通过实际标注框对实际毛孔进行预标注的毛孔图像;
将所述预标注图像输入所述毛孔检测模型中生成预测标注框;
根据实际标注框确定预测标注框总损失,并反向传播更新参数,完成所述毛孔检测模型的训练;所述预测标注框总损失包括定位损失,所述定位损失根据所述实际标注框和所述预测标注框确定,
当所述实际标注框和所述预测标注框的交集不为0时,定位损失;其中,/>表示实际标注框与预测标注框的交集区域,/>表示实际标注框与预测标注框的并集区域;
所述实际标注框和所述预测标注框的交集为0时,定位损失;其中,/>为矩形长宽比的一致性参数表示,/>表示标注框长宽比在损失中的占比,/>为实际标注框中心点,/>为预测标注框中心点,/>为实际标注框与预测标注框的中心点的欧式距离,/>为实际标注框与预测标注框的最小闭包区域的对角线距离;
过滤模块,用于将所述目标毛孔的位置坐标转换为霍夫曲线空间中曲线进行投票,过滤不满足直线条件的目标毛孔;
特征识别模块,用于在滑动窗口内目标毛孔数量满足特征获取条件时,基于滑动窗口内目标毛孔确定毛孔特征。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310255375.1A CN116228734B (zh) | 2023-03-16 | 2023-03-16 | 一种家禽毛孔特征识别方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310255375.1A CN116228734B (zh) | 2023-03-16 | 2023-03-16 | 一种家禽毛孔特征识别方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116228734A CN116228734A (zh) | 2023-06-06 |
CN116228734B true CN116228734B (zh) | 2023-09-22 |
Family
ID=86580435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310255375.1A Active CN116228734B (zh) | 2023-03-16 | 2023-03-16 | 一种家禽毛孔特征识别方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116228734B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293522A (ja) * | 2005-04-07 | 2006-10-26 | Fuji Photo Film Co Ltd | 直線検出装置、直線検出方法およびそのプログラム |
US9373057B1 (en) * | 2013-11-01 | 2016-06-21 | Google Inc. | Training a neural network to detect objects in images |
WO2018137357A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 一种目标检测性能优化的方法 |
CN110551828A (zh) * | 2019-09-19 | 2019-12-10 | 江苏省家禽科学研究所 | 一种与鸡背部毛孔密度相关的snp分子标记及其应用 |
CN111950329A (zh) * | 2019-05-16 | 2020-11-17 | 长沙智能驾驶研究院有限公司 | 目标检测及模型训练方法、装置、计算机设备和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6720845B2 (ja) * | 2016-12-02 | 2020-07-08 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2023
- 2023-03-16 CN CN202310255375.1A patent/CN116228734B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293522A (ja) * | 2005-04-07 | 2006-10-26 | Fuji Photo Film Co Ltd | 直線検出装置、直線検出方法およびそのプログラム |
US9373057B1 (en) * | 2013-11-01 | 2016-06-21 | Google Inc. | Training a neural network to detect objects in images |
WO2018137357A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 一种目标检测性能优化的方法 |
CN111950329A (zh) * | 2019-05-16 | 2020-11-17 | 长沙智能驾驶研究院有限公司 | 目标检测及模型训练方法、装置、计算机设备和存储介质 |
CN110551828A (zh) * | 2019-09-19 | 2019-12-10 | 江苏省家禽科学研究所 | 一种与鸡背部毛孔密度相关的snp分子标记及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN116228734A (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115861135B (zh) | 一种应用于箱体全景探测的图像增强及识别方法 | |
US11113836B2 (en) | Object detection method, device, apparatus and computer-readable storage medium | |
WO2018108129A1 (zh) | 用于识别物体类别的方法及装置、电子设备 | |
CN111444921A (zh) | 划痕缺陷检测方法、装置、计算设备和存储介质 | |
CN103164692B (zh) | 一种基于计算机视觉的特种车辆仪表自动识别系统及方法 | |
CN113269257A (zh) | 一种图像分类方法、装置、终端设备及存储介质 | |
CN111080654B (zh) | 图像的病变区域分割方法、装置及服务器 | |
CN113780201B (zh) | 手部图像的处理方法及装置、设备和介质 | |
CN113888541B (zh) | 一种腹腔镜手术阶段的图像识别方法、装置及存储介质 | |
CN110910445B (zh) | 一种物件尺寸检测方法、装置、检测设备及存储介质 | |
CN111552837A (zh) | 基于深度学习的动物视频标签自动生成方法、终端及介质 | |
CN115909059A (zh) | 一种自然资源样本库建立方法和装置 | |
CN112669323A (zh) | 图像处理方法及相关设备 | |
CN113808131A (zh) | 一种连接器缺陷识别方法及系统及装置及介质 | |
CN113657202A (zh) | 构件识别方法、构建训练集方法、装置、设备及存储介质 | |
CN117557565B (zh) | 一种锂电池极片的检测方法及其装置 | |
CN116228734B (zh) | 一种家禽毛孔特征识别方法、装置及设备 | |
CN116011480B (zh) | 基于二维码标识符的水位获取方法、装置、设备及介质 | |
CN112818993A (zh) | 一种用于摄像直读抄表器的字轮读数表端识别方法及设备 | |
CN117649515A (zh) | 一种基于数字孪生的半监督3d目标检测方法、系统和设备 | |
CN116843665A (zh) | 相机模组涂胶情况判定方法、装置、设备及存储介质 | |
CN116343223A (zh) | 一种基于深度学习的字轮式水表读数方法 | |
US20220405916A1 (en) | Method for detecting the presence of pneumonia area in medical images of patients, detecting system, and electronic device employing method | |
CN115953371A (zh) | 一种绝缘子缺陷检测方法、装置、设备和存储介质 | |
CN116188960A (zh) | 基于关键点识别的仪表智能读数方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |