CN110307903B - 一种家禽特定部位无接触温度动态测量的方法 - Google Patents

一种家禽特定部位无接触温度动态测量的方法 Download PDF

Info

Publication number
CN110307903B
CN110307903B CN201910577333.3A CN201910577333A CN110307903B CN 110307903 B CN110307903 B CN 110307903B CN 201910577333 A CN201910577333 A CN 201910577333A CN 110307903 B CN110307903 B CN 110307903B
Authority
CN
China
Prior art keywords
specific part
poultry
neural network
specific
temperature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910577333.3A
Other languages
English (en)
Other versions
CN110307903A (zh
Inventor
韦光亮
王筱东
吴光杰
李正
冯军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Talentcloud Information Technology Co ltd
Original Assignee
Guangxi Talentcloud Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Talentcloud Information Technology Co ltd filed Critical Guangxi Talentcloud Information Technology Co ltd
Priority to CN201910577333.3A priority Critical patent/CN110307903B/zh
Publication of CN110307903A publication Critical patent/CN110307903A/zh
Application granted granted Critical
Publication of CN110307903B publication Critical patent/CN110307903B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Abstract

本发明涉及家禽动态测温领域,特别涉及一种家禽特定部位无接触温度动态测量的方法,包括:获取各类家禽待测量温度的多张特定部位图像,对特定部位图像的特定部位进行标识;将多张特定部位图像分为训练集和测试集;将训练集输入深度学习神经网络训练以提取特定部位的特征信息,根据特定部位的特征信息获取特定部位的位置,满足设置的迭代次数后生成神经网络的网络参数;利用测试集对神经网络的网络参数进行测试,获取最优网络参数的深度学习神经网络,通过摄像设备实时捕捉某类家禽的图像输入至最优深度学习神经网络识别出特定部位的实时位置,采用自动跟踪红外测温仪根据实时位置捕捉特定部位的温度。该方法能够无接触动态测量家禽特定部位温度。

Description

一种家禽特定部位无接触温度动态测量的方法
技术领域
本发明属于家禽动态测温领域,特别涉及一种家禽特定部位无接触温度动态测量的方法。
背景技术
体温变化是动物机体对病原刺激的应答反应,家禽为恒温动物,其正常体温只在很小的范围内变化。家禽体温的异常变化是判定家禽是否健康,以及确定疾病性质、病情程度的重要依据。家禽类的体温常在翅膀下或头部、尾部等其他裸露部位测定。体温超过正常标准,即称体温升高(发热),多见于急性传染病和炎症过程;体温低于正常值,称为体温过低,一般见于大出血,心循环衰竭及某些中毒。
家禽常采用圈养或散养方式养殖,传统方式测量体温为用温度计测量家禽翅膀下温度,效率低、操作复杂,且容易对家禽造成应激反应。如人工测量:通过人工测量家禽关键部位温度,比如通过体温计,测量鸡的翅膀下部的温度;但人工测量效率低,工作量大,不能实时测量和监控。
发明内容
本发明的目的在于提供一种家禽特定部位无接触温度动态测量的方法,从而克服人工测量家禽特定部位温度工作效率较低,且不能实时进行监控的缺点。
为实现上述目的,本发明提供了一种家禽特定部位无接触温度动态测量的方法,包括以下步骤:
S1,获取各类家禽待测量温度的多张特定部位图像,对所述特定部位图像的特定部位进行标识;
S2,将多张特定部位图像分为训练集和测试集;
S3,将训练集输入深度学习神经网络训练以提取特定部位的特征信息,根据所述特定部位的特征信息获取特定部位的位置,满足设置的迭代次数后生成所述深度学习神经网络的网络参数;
S4,利用测试集对所述深度学习神经网络的网络参数进行测试,当测试的平均精度和召回率满足设定的阈值时,获取最优网络参数的最优所述深度学习神经网络;
S5,通过摄像设备实时捕捉某类家禽的图像输入至最优所述深度学习神经网络识别出特定部位的实时位置,采用自动跟踪红外测温仪根据所述实时位置捕捉特定部位的温度。
优选的,上述技术方案中,所述深度学习神经网络为fasterrcnn深度神经网络。
优选的,上述技术方案中,所述特征信息包括纹理信息、色彩信息及形状信息。
优选的,上述技术方案中,步骤S3具体包括:
S31,将多张所述特定部位图像输入CNN进行特定部位图提取;
S32,将所述特定部位图输入RPN生成20000个建议窗口,把建议窗口映射到CNN的最后一层卷积的feature map上;
S33,通过RoI pooling层使每个RoI生成固定尺寸的feature map;
S34,利用Softmax Loss(探测分类概率)和Smooth L1Loss(探测边框回归)对分类概率和边框回归(Bounding box regression)联合训练。
优选的,上述技术方案中,采用自动跟踪红外测温仪根据所述实时位置捕捉特定部位的温度的步骤为:
S41,在实时拍摄的图像中建立坐标,通过带有测距功能的摄像设备获取其与特定部位之间的距离;
S42,获取特定部位的坐标,根据特定部位的坐标与摄像设备获与特定部位之间的距离获取红外测温仪的偏移量。
与现有的技术相比,本发明中的家禽特定部位无接触温度动态测量的方法,通过深度学习算法实时识别出拍摄图像中家禽的特定部位,然后通过自动跟踪红外测温仪实时测量家禽特定部位的温度,最后通过预测的温度对家禽的监控状况进行判定,使工作效率成倍提高,并实时能够获取家禽的健康状态。
附图说明
图1为本发明家禽特定部位无接触温度动态测量的方法的流程图。
图2为本发明Faster RCNN的整体框架图。
图3为本发明Faster RCNN的网络结构图。
图4为本发明Faster RCNN逐像素对Anchor box进行二分类以及计算偏移量示意图。
图5为本发明Faster RCNN定义的面积为[0,0,15,15]的box,面积不变长宽比分别变化为[0.5,1,2]的Anchors box的示例图。
图6为图5经过Scales变化,即长、宽分别为(16*8=128)、(16*16=256)、(16*32=512)后的示例图。
图7为定义的box经过图5和图6两种变化最后生成的9个Anchor box示例图。
图8为本发明利用Softmax Loss和L1Loss完成分类和定位的流程图。
具体实施方式
下面结合附图,对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
如图1所示,该实施例中的家禽特定部位无接触温度动态测量的方法,包括以下步骤:
步骤S1,获取各类家禽待测量温度的多张特定部位图像,对特定部位图像的特定部位进行标识。
具体的,拍摄不同鸡种类,不同角度的含有鸡头的照片,每个鸡种类的照片不少于2000张,作为鸡头部样本库;利用labelimg标注工具对获取的特定部位图像中的特定部位进行标注,框出图片中的特定部位,如家禽为鸡时,框出鸡头部位。
对标注好的图片进行预处理,使用OpenCV的RotateImage对图像进行旋转、使用LightImage对图像亮度、暗度进行处理,实现数据增强;使用caffe的Scale layer和BatchNorm layer实现数据归一化处理;增加样本数量,以提高算法鲁棒性,使网络能够更好的进行优化。
S2,将预处理后的多张特定部位图像按照5:1的比例分为训练集和测试集。
S3,将训练集输入fasterrcnn深度神经网络训练以提取特定部位的特征信息,特定部位的特征信息包括:纹理信息、色彩信息及形状信息,根据特定部位的特征信息获取特定部位的位置,经50万次迭代后生成fasterrcnn深度神经网络的网络参数。
S4,利用测试集对fasterrcnn深度神经网络的网络参数进行测试,获得测试图片的特定部位信息与在S1标注的特定部位信息进行比较,最终通过平均精度map和召回率recall进行评估,召回率recall为将正类预测为正类数占将正类预测为负类数的比例,重复步骤S3和S4知道平均精度map和召回率recall达到需求,从而获取最优网络参数的fasterrcnn深度神经网络,利用该最优的fasterrcnn深度神经网络预测特定部位的特征信息识别特定部位的位置。
S5,通过摄像设备实时捕捉某类家禽的图像输入至最优fasterrcnn深度神经网络识别出特定部位的实时位置,采用自动跟踪红外测温仪根据实时位置捕捉特定部位的温度,进一步的,自动跟踪红外温度跟踪的步骤为:
步骤1,在实时拍摄的图像中建立坐标,通过带有测距功能的摄像设备获取其与特定部位之间的距离。
步骤2,获取特定部位的坐标,根据特定部位的坐标与摄像设备获与特定部位之间的距离获取红外测温仪的偏移量,其中,偏移量实现方法:可以建立坐标、距离、偏离量的数据库,通过查找三者的关系得知偏移量;也可以对三者的关系引入学习算法模型进行深度学习,通过训练后的学习算法模型进行预测。
该实施例中,主要运用Faster RCNN网络作为深度学习预测模型,总体框架如图2所示,具体包括:
(1)Conv layers提取特征图:
作为一种CNN网络目标检测方法,Faster RCNN首先使用一组基础的conv+relu+pooling层提取input image的feature maps,该feature maps会用于后续的RPN层和全连接层
(2)RPN(Region Proposal Networks):
RPN网络主要用于生成region proposals,首先生成一堆Anchor box,对其进行裁剪过滤后通过softmax判断anchors属于前景(foreground)或者后景(background),即是物体or不是物体,所以这是一个二分类;同时,另一分支bounding box regression修正anchor box,形成较精确的proposal(注:这里的较精确是相对于后面全连接层的再一次box regression而言)。
(3)Roi Pooling:
该层利用RPN生成的proposals和VGG16最后一层得到的feature map,得到固定大小的proposal feature map,进入到后面可利用全连接操作来进行目标识别和定位。
(4)Classifier:
会将Roi Pooling层形成固定大小的feature map进行全连接操作,利用Softmax进行具体类别的分类,同时,利用L1Loss完成bounding box regression回归操作获得物体的精确位置。
具体实施步骤如图3所示:
步骤1,将家禽图像输入CNN进行特定部位图像提取;
Faster RCNN首先是支持输入任意大小的图片的,比如上图中输入的P*Q,进入网络之前对图片进行了规整化尺度的设定,如可设定图像短边不超过600,图像长边不超过1000,我们可以假定M*N=1000*600(如果图片少于该尺寸,可以边缘补0,即图像会有黑色边缘)
①13个conv层:kernel_size=3,pad=1,stride=1;
卷积公式:
Figure BDA0002112366410000051
所以,conv层不会改变图片大小(即:输入的图片大小=输出的图片大小)
②13个relu层:激活函数,不改变图片大小
③4个pooling层:kernel_size=2,stride=2;pooling层会让输出图片是输入图片的1/2经过Conv layers,图片大小变成(M/16)*(N/16),即:60*40(1000/16≈60,600/16≈40);则,Feature Map就是60*40*512-d(注:VGG16是512-d,ZF是256-d),表示特征图的大小为60*40,数量为512。
步骤2,将特定部位图像输入RPN生成20000左右建议窗口,把建议窗口映射到CNN的最后一层卷积的feature map上。
Feature Map进入RPN后,先经过一次3*3的卷积,同样,特征图大小依然是60*40,数量512,这样做的目的应该是进一步集中特征信息,接着看到两个全卷积,即kernel_size=1*1,p=0,stride=1。
如图3中标识:①rpn_cls:60*40*512-d⊕1*1*512*18==>60*40*9*2,逐像素对其9个Anchor box进行二分类。
②rpn_bbox:60*40*512-d⊕1*1*512*36==>60*40*9*4,逐像素得到其9个Anchor box四个坐标信息。
Anchors的生成规则如图4所示,前面提到经过Conv layers后,图片大小变成了原来的1/16,令feat_stride=16,在生成Anchors时,我们先定义一个base_anchor,大小为16*16的box(因为特征图(60*40)上的一个点,可以对应到原图(1000*600)上一个16*16大小的区域),转化为[0,0,15,15]的数组,参数ratios=[0.5,1,2]scales=[8,16,32],见图5,先看[0,0,15,15],面积保持不变,长、宽比分别为[0.5,1,2]是产生的Anchors box,见图6,如果经过scales变化,即长、宽分别均为(16*8=128)、(16*16=256)、(16*32=512),对应anchor box如图6所示,综合以上两种变换,见图7,最后生成9个Anchor box。
所以,最终base_anchor=[0,0,15,15]生成的9个Anchor box坐标如下:
1[[-84. -40. 99. 55.]
2[-176. -88. 191. 103.]
3[-360. -184. 375. 199.]
4[-56. -56. 71. 71.]
5[-120. -120. 135. 135.]
6[-248. -248. 263. 263.]
7[-36. -80. 51. 95.]
8[-80. -168. 95. 183.]
9[-168. -344. 183. 359.]]
特征图大小为60*40,所以会一共生成60*40*9=21600个Anchor box,通过width:(0~60)*16,height(0~40)*16建立shift偏移量数组,再和base_ancho基准坐标数组累加,得到特征图上所有像素对应的Anchors的坐标值,是一个[216000,4]的数组。
步骤3,通过RoI pooling层使每个RoI生成固定尺寸的feature map。
输入的是RPN层产生的region proposal(假定有300个region proposal box)和VGG16最后一层产生的特征图(60*40 512-d),遍历每个region proposal,将其坐标值缩小16倍,这样就可以将在原图(1000*600)基础上产生的regionproposal映射到60*40的特征图上,从而将在feature map上确定一个区域(定义为RB*)。
在feature map上确定的区域RB*,根据参数pooled_w:7,pooled_h:7,将这个RB*区域划分为7*7,即49个相同大小的小区域,对于每个小区域,使用max pooling方式从中选取最大的像素点作为输出,这样,就形成了一个7*7的feature map
以此,参照上述方法,300个region proposal遍历完后,会产生很多个7*7大小的feature map,故而输出的数组是:[300,512,7,7],作为下一层的全连接的输入。
步骤4,利用探测分类概率和探测边框回归对固定尺寸的feature mapde分类概率和边框回归联合训练以获取特定部位及其精确位置。
经过roi pooling层之后,batch_size=300,proposal feature map的大小是7*7,512-d,对特征图进行全连接,参照下图8,最后同样利用Softmax Loss和L1 Loss完成分类和定位,通过full connect层与softmax计算每个region proposal具体属于哪个类别(如绽蕾期,露白期,现蕾期等),输出cls_prob概率向量;同时再次利用bounding boxregression获得每个region proposal的位置偏移量bbox_pred,用于回归获得更加精确的目标检测框。
即从PoI Pooling获取到7x7大小的proposal feature maps后,通过全连接主要做了:通过全连接和softmax对region proposals进行具体类别的分类;再次对regionproposals进行bounding box regression,获取更高精度的rectangle box。
综上,本发明中的家禽特定部位无接触温度动态测量的方法,通过深度学习算法实时识别出拍摄图像中家禽的特定部位,然后通过自动跟踪红外测温仪实时测量家禽特定部位的温度,最后通过预测的温度对家禽的监控状况进行判定,使工作效率成倍提高,并实时能够获取家禽的健康状态
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。

Claims (2)

1.一种家禽特定部位无接触温度动态测量的方法,其特征在于,包括以下步骤:
S1,获取各类家禽待测量温度的多张特定部位图像,对所述特定部位图像的特定部位进行标识;
S2,将多张特定部位图像分为训练集和测试集;
S3,将训练集输入深度学习神经网络训练以提取特定部位的特征信息,根据所述特定部位的特征信息获取特定部位的位置,满足设置的迭代次数后生成所述深度学习神经网络的网络参数;
S4,利用测试集对所述深度学习神经网络的网络参数进行测试,当测试的平均精度和召回率满足设定的阈值时,获取最优网络参数的最优所述深度学习神经网络;
S5,通过摄像设备实时捕捉某类家禽的图像输入至最优所述深度学习神经网络识别出特定部位的实时位置,采用自动跟踪红外测温仪根据所述实时位置捕捉特定部位的温度;
所述深度学习神经网络为fasterrcnn深度神经网络;所述特征信息包括纹理信息、色彩信息及形状信息;
采用自动跟踪红外测温仪根据所述实时位置捕捉特定部位的温度的步骤为:
S41,在实时拍摄的图像中建立坐标,通过带有测距功能的摄像设备获取其与特定部位之间的距离;
S42,获取特定部位的坐标,根据特定部位的坐标与摄像设备获与特定部位之间的距离获取红外测温仪的偏移量。
2.根据权利要求1所述的家禽特定部位无接触温度动态测量的方法,其特征在于,步骤S3具体包括:
S31,将多张所述特定部位图像输入CNN进行特定部位图提取;
S32,将所述特定部位图输入RPN生成20000个建议窗口,把建议窗口映射到CNN的最后一层卷积的feature map上;
S33,通过RoI pooling层使每个RoI生成固定尺寸的feature map;
S34,利用Softmax Loss和Smooth L1 Loss对分类概率和边框回归联合训练,其中,Softmax Loss为探测分类概率,Smooth L1 Loss为探测边框回归。
CN201910577333.3A 2019-06-28 2019-06-28 一种家禽特定部位无接触温度动态测量的方法 Active CN110307903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910577333.3A CN110307903B (zh) 2019-06-28 2019-06-28 一种家禽特定部位无接触温度动态测量的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910577333.3A CN110307903B (zh) 2019-06-28 2019-06-28 一种家禽特定部位无接触温度动态测量的方法

Publications (2)

Publication Number Publication Date
CN110307903A CN110307903A (zh) 2019-10-08
CN110307903B true CN110307903B (zh) 2021-04-13

Family

ID=68078064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910577333.3A Active CN110307903B (zh) 2019-06-28 2019-06-28 一种家禽特定部位无接触温度动态测量的方法

Country Status (1)

Country Link
CN (1) CN110307903B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111458030B (zh) * 2020-03-11 2021-04-09 华瑞新智科技(北京)有限公司 一种红外人体测温的校准方法以及装置
CN111369560B (zh) * 2020-04-26 2023-04-28 成都大熊猫繁育研究基地 一种圈养大熊猫体温快速测量方法
CN111623878A (zh) * 2020-04-27 2020-09-04 深圳市国脉科技有限公司 体温测量方法、装置、计算机可读介质及电子设备
CN114022907B (zh) * 2021-12-27 2022-07-19 东北农业大学 一种基于深度学习的猪只体表测温装置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5775806A (en) * 1996-09-12 1998-07-07 The United States Of America As Represented By The Secretary Of The Air Force Infrared assessment system
CN103728028A (zh) * 2013-12-31 2014-04-16 天津大学 红外热释电小波包能量人体热源特征提取与判别方法
CN108052964A (zh) * 2017-12-05 2018-05-18 翔创科技(北京)有限公司 牲畜状态检测方法、计算机程序、存储介质及电子设备
CN108225567A (zh) * 2017-12-20 2018-06-29 中北大学 一种笼养鸡健康状况自动化监测轮式装置及方法
CN108846418A (zh) * 2018-05-24 2018-11-20 广东电网有限责任公司 一种电缆设备温度异常定位与识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5775806A (en) * 1996-09-12 1998-07-07 The United States Of America As Represented By The Secretary Of The Air Force Infrared assessment system
CN103728028A (zh) * 2013-12-31 2014-04-16 天津大学 红外热释电小波包能量人体热源特征提取与判别方法
CN108052964A (zh) * 2017-12-05 2018-05-18 翔创科技(北京)有限公司 牲畜状态检测方法、计算机程序、存储介质及电子设备
CN108225567A (zh) * 2017-12-20 2018-06-29 中北大学 一种笼养鸡健康状况自动化监测轮式装置及方法
CN108846418A (zh) * 2018-05-24 2018-11-20 广东电网有限责任公司 一种电缆设备温度异常定位与识别方法

Also Published As

Publication number Publication date
CN110307903A (zh) 2019-10-08

Similar Documents

Publication Publication Date Title
CN110307903B (zh) 一种家禽特定部位无接触温度动态测量的方法
CN112380952B (zh) 基于人工智能的电力设备红外图像实时检测及识别方法
WO2021000524A1 (zh) 孔位保护门检测方法、装置、计算机设备和存储介质
US10860879B2 (en) Deep convolutional neural networks for crack detection from image data
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
CN109285139A (zh) 一种基于深度学习的x射线成像焊缝检测方法
CN111784633B (zh) 一种面向电力巡检视频的绝缘子缺损自动检测算法
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN110879982B (zh) 一种人群计数系统及方法
Bo et al. Particle pollution estimation from images using convolutional neural network and weather features
WO2020173177A1 (zh) 物体色差缺陷检测方法、装置、计算机设备及存储介质
CN111709421B (zh) 鸟类识别方法、装置、计算机设备及存储介质
CN113420643B (zh) 基于深度可分离空洞卷积的轻量级水下目标检测方法
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
CN113435282B (zh) 基于深度学习的无人机影像麦穗识别方法
CN108492298A (zh) 基于生成对抗网络的多光谱图像变化检测方法
CN111161224A (zh) 基于深度学习的铸件内部缺陷分级评估系统及方法
CN111882555B (zh) 基于深度学习的网衣检测方法、装置、设备及存储介质
CN110827304A (zh) 一种基于深度卷积网络与水平集方法的中医舌像定位方法和系统
CN111160100A (zh) 一种基于样本生成的轻量级深度模型航拍车辆检测方法
CN106960188B (zh) 天气图像分类方法及装置
CN114596244A (zh) 基于视觉处理和多特征融合的红外图像识别方法及系统
CN117152484A (zh) 改进YOLOv5s的小目标布匹瑕疵检测方法
CN110738229B (zh) 一种细粒度图像分类方法、装置及电子设备
CN115861259A (zh) 一种基于模板匹配的引线框架表面缺陷检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant