CN110097005A - 基于深度学习的牛体尺测量系统中站姿纠偏的方法 - Google Patents

基于深度学习的牛体尺测量系统中站姿纠偏的方法 Download PDF

Info

Publication number
CN110097005A
CN110097005A CN201910361644.6A CN201910361644A CN110097005A CN 110097005 A CN110097005 A CN 110097005A CN 201910361644 A CN201910361644 A CN 201910361644A CN 110097005 A CN110097005 A CN 110097005A
Authority
CN
China
Prior art keywords
camera
stance
ground
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910361644.6A
Other languages
English (en)
Inventor
赵建敏
李琦
王月明
张万锴
李宝山
文博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia Zhi Zhi Traceability Technology Development Co Ltd
Inner Mongolia University of Science and Technology
Original Assignee
Inner Mongolia Zhi Zhi Traceability Technology Development Co Ltd
Inner Mongolia University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia Zhi Zhi Traceability Technology Development Co Ltd, Inner Mongolia University of Science and Technology filed Critical Inner Mongolia Zhi Zhi Traceability Technology Development Co Ltd
Priority to CN201910361644.6A priority Critical patent/CN110097005A/zh
Publication of CN110097005A publication Critical patent/CN110097005A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度学习的牛体尺测量系统中站姿纠偏的方法,包括步骤一,设置测量系统,包括地面标注面、侧身摄像头、尾部摄像头和图像服务器;所述图像服务器包括特征部位检测模型和体尺测量算法,步骤二,所述侧身摄像头和尾部摄像头分别采集牛的侧身图像和牛的尾部图像,传输至所述图像服务器,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,步骤三计算地面标定参数An、垂直地面的标定面的标定参数Kn,步骤四计算站姿偏角θ,步骤五根据坐标信息及比例获得牛的体尺数据。本申请通过采用侧身摄像头、尾部摄像头采集牛的图像,通过图像服务器处理图像数据计算牛的体尺数据,降低了测量的劳动强度和难度,避免了安全隐患。

Description

基于深度学习的牛体尺测量系统中站姿纠偏的方法
技术领域
本发明涉及牛体尺算法技术领域,尤其涉及一种基于深度学习的牛体尺测量系统中站姿纠偏的方法。
背景技术
随着科学技术的发展与大数据时代的来临,畜牧业的信息化与智能化是促进我国畜牧业快速、健康发展的重中之重。借助智能化、自动化的数据采集与计算机辅助分析,可以提升畜牧业的生产规模、降低人力成本、增强生产效率。
对于畜牧产业中的牛类的体尺指标主要包含身高、体长、体斜长、胸宽、后躯宽、胸围长等参数。随着生物研究的发展和牧民养殖经验的不断积累,人们已经认识到对牛体的测量有着广泛的应用和价值,包括监视并预测牛的生长速率、发育状态、身体特征和饮食状态,以利于家畜的优选育种及饲养管理等。因此,对于牛体尺的测量具有很实际的经济价值。
然而现阶段在实际应用中,牧民对牛的体尺指标的测量仍然非常低效、繁琐,牛活体体尺指标参数主要采用人工手工测量的方法,工作人员借助软尺、卡尺等测量工具对对牛活体的身高、体长、体斜长、胸宽、后躯宽、胸围长等多个指标进行测量。这种测量方式需要耗费大量的人力物力,要求在场地平坦,牛以标准站立姿势时进行测量,因此测量难度大,测量结果存在很大的主观性,测量精度低,具有一定的安全隐患,而且还会造成对牛的应激反应,对牛的健康存在不利影响。
现阶段也有采用摄像头给牛拍照从而获取体尺数据的情况,但是由于牛在很多情况下,不会按照人们的意愿站立,所以经常会有由于牛的站姿不标准导致的体尺数据错误的情况,在驱使牛按人们意愿站立时还具有一定的安全隐患。
发明内容
为克服现有技术中存在的牛在不标准站立姿势时不能安全精确测量牛的体尺的问题,本发明提供了一种基于深度学习的牛体尺测量系统中站姿纠偏的方法。
基于深度学习的牛体尺测量系统中站姿纠偏的方法,包括如下步骤:
步骤一,设置一测量系统,其包括地面标注面(1)、侧身摄像头(2)、尾部摄像头(3)和图像服务器,侧身摄像头(2)采集牛的侧身图像传输至所述图像服务器,所述尾部摄像头(3)采集牛的尾部图像传输至所述图像服务器,所述图像服务器包括特征部位检测模型和体尺测量算法;
步骤二,安装地面标注面(1),所述地面标注面(1)为铺设在地面上的长方形地板,包括六条标注线,五个地面标注面区域,每个地面标注面区域都是长方形,长度不固定,宽度是20cm,在每块的地面标注面区域的宽取中心取竖直向上的竖直面作为竖直标定面,和侧身摄像头(2)、尾部摄像头,所述侧身摄像头(2)和所述尾部摄像头(3)通过伸缩勾吊挂屋顶上,所述侧身摄像头(2)和尾部摄像头(3)与图像服务器通过以太网连接;
步骤三,使牛站在地面标注面(1)上,打开侧身摄像头(2)和尾部摄像头(3),侧身摄像头(2)和尾部摄像头(3)分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位位置,计算地面标定参数An和垂直地面的标定面的标定参数Kn;
步骤四,判断站姿和确定站姿偏角θ,牛的两个前蹄中点到牛两个后蹄中点的连线与地面标注线的夹角为站姿偏角θ,使牛站在地面标注面(1)上,打开侧身摄像头(2)和尾部摄像头(3),侧身摄像头(2)和尾部摄像头(3)分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,计算站姿偏角θ;
步骤五,侧身摄像头(2)和尾部摄像头(3)分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,根据步骤三和步骤四的公式获得地面标定参数An、垂直地面的标定面的标定参数Kn和站姿偏角θ,根据比例获得牛的体尺数据。
在本发明一优选实施例中,步骤三中,先做地面标注,在测量区域,垂直于镜头平面每间隔20cm做一条标注线,计算出每一个区域内的标定参数An,n=1,2,3,4,5,其中每个区域的实际距离是20cm,从获取到的图中可以得到每个区域的像素距离,也就是图像距离。
在本发明一优选实施例中,垂直地面的每个区域分别有一个垂直地面的标定面和对应的标定参数,垂直地面的标定面的标定参数Kn的计算步骤如下:
(1)垂直地面的标定面由棋盘格组成,测出实际的每一个黑色的小方块的边长,测得的距离就是实际距离,然后用摄像头获得每一个黑色的小方块的像素距离;
(2)垂直地面的标定面的标定参数Kn,n=1,2,3,4,5。
在本发明一优选实施例中,步骤三中,牛的两个前蹄中点到牛两个后蹄中点的连线与地面标注线的夹角为站姿偏角,站姿偏角的计算步骤如下:
(1)从获取的图片中,利用两个前蹄和两个后蹄的像素坐标分别求得前蹄中点的像素坐标和后蹄中点的像素坐标。然后利用步骤三得到的标定参数An,将像素坐标转换成实际坐标;
(2)前蹄中点和后蹄中点的实际坐标和标注线的平行线构建一个直角三角形,利用三角函数公式,计算站姿偏角的大小。
在本发明一优选实施例中,所述特征部位检测模型包括特征部位数据集、特征部位检测方法。
在本发明一优选实施例中,所述特征部位数据集包括牛图像和标定文件;所述牛图像包括单只或多只牛正面、侧身、背部图像,特征部位名称有牛、牛头、牛躯干、牛蹄、关节、牛尻;所述标定文件给出牛、牛头、牛躯干、牛蹄、关节、牛尻的边框的标签和坐标信息。
在本发明一优选实施例中,所述标定文件采用xml格式文件,文件中列出图像基本信息,包括xml文件名,xml文件保存路径,图片尺寸,特征部位名称,特征部位像素坐标。
在本发明一优选实施例中,所述特征部位检测方法采用两步法时,包括特征提取网络、候选框推选方法、候选框分类和回归网络;即先特征提取网络提取图像特征,输入图像经过5个卷积块,最终得到512个高14像素、宽14像素的特征图,在所述特征图上以每个像素点作为锚anchor的中心点,在原图中生成6个锚框,目标候选框推选网络通过卷积层将14*14*512的矩阵变成6个预测框的坐标偏移值14*14*24和对应锚框属于目标的概率值14*14*6,将目标候选框推选网络输出中属于目标的概率大于0.6的预测框的特征送入分类网络和回归网络,输出特征部位类别分类得分和边框坐标预测值。
在本发明一优选实施例中,所述所述特征部位检测方法采用一步法时,检测步骤包括特征提取和特征位置预测及分类,即首先通过特征提取网络提取输入图像的多尺度特征,每个尺度上分别预测特征部位,并将所有尺度的预测结果按照置信度预测值排序,选出超过预测值门限的候选框通过非极大值抑制方法得到目标的识别位置和种类。
在本发明一优选实施例中,所述体尺测量算法利用输入特征部位中心点坐标、标定参数和站姿偏角来计算牛的身高、体长、体斜长、胸围、后躯宽、胸围长。
与现有技术相比,本发明的有益效果是:
(1)本申请通过站姿纠偏,使得不管牛以任何站姿站立在摄像头前,都可以采集到有效的特征部位坐标信息,降低了测量难度,提高了工作效率;
(2)本申请将深度学习和特征部位检测的技术用于牛体尺的测量,使得牛体尺测量的方法更为便捷,提高了测量效率,降低了测量成本;
(3)通过采用侧身摄像头、尾部摄像头采集牛的图像,不需要人工手工测量,提高了测量的工作效率,降低了测量的劳动强度和测量难度,也避免了安全隐患;
(4)采用特征部位监测模型处理输入图像,再输出特征部位坐标信息,提高了图像采集和图像信息处理的效率,降低了测量成本;
(5)采用体尺测量算法根据坐标信息计算牛的体尺数据,提高了数据处理速度,降低了测量成本。
附图说明
图1是本发明基于深度学习的牛体尺测量系统中站姿纠偏的方法一优选实施例的电路原理示意图;
图2是本发明基于深度学习的牛体尺测量系统中站姿纠偏的方法一优选实施例的整体结构示意图;
图3是本发明基于深度学习的牛体尺测量系统一优选实施例中卷积块1的结构示意图;
图4是本发明基于深度学习的牛体尺测量系统一优选实施例中卷积块2的结构示意图;
图5是本发明基于深度学习的牛体尺测量系统一优选实施例中特征提取网络结构示意图;
图6是本发明基于深度学习的牛体尺测量系统一优选实施例中目标候选框推选网络示意图;
图7是本发明基于深度学习的牛体尺测量系统一优选实施例中特征提取网络结构示意图;
图8是本发明基于深度学习的牛体尺测量系统一优选实施例中牛的两个前蹄中点4到牛两个后蹄中点5的连线与地面标注线的夹角的示意图;
图中:1-底面标注面;2-侧身摄像头;3-尾部摄像头;4-前蹄中点;5-后蹄中点。
具体实施方式
以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1:
基于深度学习的牛体尺测量系统中站姿纠偏的方法,包括如下步骤:
步骤一,设置一测量系统,请参看图2,是本发明基于深度学习的牛体尺测量系统中站姿纠偏的方法一优选实施例的整体结构示意图,包括地面标注面1、侧身摄像头2、尾部摄像头3和图像服务器,请参看图1,是本发明基于深度学习的牛体尺测量系统中站姿纠偏的方法一优选实施例的电路原理示意图,侧身摄像头2采集牛的侧身图像传输至所述图像服务器,所述尾部摄像头3采集牛的尾部图像传输至所述图像服务器,所述图像服务器包括特征部位检测模型和体尺测量算法;
步骤二,安装地面标注面1,所述地面标注面1为铺设在地面上的长方形地板,包括六条标注线,五个地面标注面区域,每个地面标注面区域都是长方形,长度不固定,宽度是20cm,在每块的地面标注面区域的宽取中心取竖直向上的竖直面作为竖直标定面,和侧身摄像头2、尾部摄像头3,所述侧身摄像头2和所述尾部摄像头3通过伸缩勾吊挂屋顶上,所述侧身摄像头2和尾部摄像头3与图像服务器通过以太网连接;
步骤三,使牛站在地面标注面1上,打开侧身摄像头2和尾部摄像头3,侧身摄像头2和尾部摄像头3分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位位置,计算地面标定参数An和垂直地面的标定面的标定参数Kn;
步骤四,判断站姿和确定站姿偏角θ,请参看图8,牛的两个前蹄中点4到牛两个后蹄中点5的连线与地面标注线的夹角为站姿偏角θ,使牛站在地面标注面1上,打开侧身摄像头2和尾部摄像头3,侧身摄像头2和尾部摄像头3分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,计算站姿偏角θ;
步骤五,侧身摄像头2和尾部摄像头3分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,根据步骤三和步骤四的公式获得地面标定参数An、垂直地面的标定面的标定参数Kn和站姿偏角θ,根据比例获得牛的体尺数据。
在本实施例中,所述地面标注面1为铺设在地面上的长方形地板,地板上划有间隔20cm的六条平行的标注线,形成五个地面标注面区域,每个地面标注面区域都是长方形,宽度为20cm。在每块的地面标注面区域的宽取中心取垂直底面的竖直面作为竖直标定面。图像服务器包括特征部位检测模型和体尺测量算法,地面标注面1的两个直角侧面设有所述侧身摄像头2和所述尾部摄像头3,侧身摄像头2采集牛的侧身图像传输至所述图像服务器,尾部摄像头3采集牛的尾部图像传输至所述图像服务器,特征部位检测模型处理输入图像,输出特征部位坐标信息,体尺测量算法根据坐标信息计算牛的体尺数据。通过采用侧身摄像头、尾部摄像头采集牛的图像,采用特征部位监测模型处理输入图像,再输出特征部位坐标信息,采用体尺测量算法根据坐标信息计算牛的体尺数据,不需要人工手工测量,降低了测量的劳动强度和测量难度,提高了图像采集和图像信息处理的效率,提高了数据处理速度,降低了测量成本,避免了安全隐患。
在本实施例中,地面标注面在地面上平行于侧身摄像头每隔20cm做一条标注线,一共作六条平行标注线,划分为五个区域,即地面标注面区域,每个地面标注面的都是长方形,长度不固定,宽度是20cm,在每块的地面标注面区域的宽取中心取垂直底面的竖直面作为竖直标定面。
在本实施例中,特征部位检测模型包括特征部位数据集、特征部位检测方法。特征部位数据集为模型训练提供数据,检测模型图像中的特征部位,输出部位的类别和其在图像中的位置,类别包括牛、牛头、牛躯干、牛蹄、关节、牛尻,位置包括左上角像素坐标、右下角像素坐标。
进一步的,在本实施例中,特征部位数据集包括牛图像和标定文件;所述牛图像包括单只或多只牛正面、侧身、背部图像,特征部位名称有牛、牛头、牛躯干、牛蹄、关节、牛尻;所述标定文件给出牛、牛头、牛躯干、牛蹄、关节、牛尻的边框的标签和坐标信息。
更进一步的,在本实施例中,所述标定文件采用xml格式文件,文件中列出图像基本信息,包括xml文件名,xml文件保存路径,图片尺寸,特征部位名称,特征部位像素坐标。
在本实施例中,特征部位检测可通过两种方法实施:两步法和一步法。
在本实施例中,所述特征部位检测方法采用两步法时,包括特征提取网络、候选框推选方法、候选框分类和回归网络。特征提取网络、候选框分类和回归网络采用多层卷积神经网络构成,检测步骤和相应的结构如下:
步骤一,特征提取网络提取图像特征。特征提取网络可选用VGG16、VGG19、Resnet101等网络结构。以VGG16网络结构为例,请参看图3和图4,是卷积块1和卷积块2的结构示意图,输入图像经过5个卷积块,最终得到512个高14像素、宽14像素的特征图,特征提取网络由卷积块构成,请参看图5是特征提取网络结构示意图,输入图像为224*224*3通道,输出特征为14*14*512通道。
特征提取网络结构由多层卷积神经网络组成,多层卷积神经网络由卷积块构成。卷积块有两种,第一种卷积块包含2个卷积层,卷积核大小是3*3,步长为1,共64个卷积核,每个卷层后要加非线性激活层,卷积块最后为池化层,大小为2*2,步长为2;第二种卷积块包含3个卷积层,卷积核大小是3*3,步长为1,每隔卷层后要加非线性激活层,卷积块最后为池化层,大小为2*2,步长为2。
特征提取网络输入图像为224*224*3(分别为宽244像素,高244像素,3个通道,后续均为宽*高*通道数),输出特征为14*14*512特征图。
步骤二,在特征提取网络输出特征图上以每个像素点作为锚anchor的中心点,在原图中生成6个锚框。6个锚框分别由大小为8像素*8像素,16像素*16像素、32像素*32像素的正方形按照长宽比1:1、2:1生成。
对于一个大小为14*14的特征层,每一个像素点都对应原图上6个锚框。请参看图6,是目标候选框推选网络,目标候选框推选网络通过卷积层把特征提取网络输出的14x14x512特征图分别经过两个卷积网络(卷积1的卷积核大小为1*1,24个,卷积2的卷积核大小为1*1,12个)输出14*14*24边框预测值和14*14*6目标概率值。14*14*24边框预测值的含义是原图平均分成14*14个区域,每个区域对应的6个尺度的预测框的坐标偏移值(左上角坐标偏移值x1、y1,右下角坐标偏移值x2、y2),14*14*6目标概率值和对应6个尺度的预测框属于目标的概率值。
步骤三,将RPN网络输出中属于目标的概率大于0.6的预测框的特征送入分类网络和回归网络,输出其属于每种特征部位的分类得分和边框坐标预测值,最后分类得分最高的类别确定为该预测框的类别,将其输出,输出包括边框坐标和特征部位类别。
在本实施例中,特征部位检测方法采用一步法时,检测步骤包括特征提取、特征位置预测及分类等步骤。特征部位检测步骤如下:
步骤一,特征提取网络提取图像特征,特征提取网络选用darknet-53网络结构得到三个尺度的特征图来做预测,网络采用深度卷积神经网络,由两种基本单元卷积块Convolutionblock和残差块Residualblock组成;其中卷积块包含1个卷积层,1个归一化层,和1个非线性激活层,残差块包含2个卷积块。
请参看图7,是特征提取网络结构图。输入图像首先经过4个卷积块和11个残差块,得到256个高52像素、宽52像素的特征图,然后经过1个卷积块和8个残差块得到512个高26像素、宽26像素的特征图,最后经过1个卷积块和4个残差块得到1024个高13像素、宽13像素的特征图。
步骤二,特征位置预测及分类
特征位置预测及分类分别三种尺度的特征上进行。
第一种小尺度上预测方法:13*13*1024的特征图首先经过卷积(卷积核为1*1,个数512)操作得到13*13*512的中间特征图,之后再经过卷积(卷积核为1*1,个数1024),得到13*13*1024的中间特征图,最后经过(卷积核为1*1,个数33)得到小尺度预测结果13*13*33维预测值,其含义为将原图等分为13*13个网格,每个网格中心预测3个边界框,每个边界框预测三种信息:1、边框位置(中心点坐标x1、y1、宽w和高h、);2、置信度(预测边界框中含有目标的概率);3、属于6个特征部位的分类得分C1、C2、C3、C4、C5、C6。
第二种中尺度上的预测方法:首先将特征提取模型输出的小尺度特征13*13*1024的特征图进行卷积操作(卷积核1*1,个数256)得到13*13*256特征图,之后将其上采样得到26*26*256特征图,将其与特征提取步骤输出的26*26*512特征进行拼接操作,得到26*26*768特征图,将此特征图经过卷积操作(卷积核1大小1*1,256个)得到中26*26*256中小尺度融合特征图,卷积核2大小1*1,33个),得到中小尺度融合预测结果26*26*33,其含义为将原图等分为26*26个网格,每个网格中心预测3个边界框,每个边界框预测三种信息:1、边框位置(中心点坐标x1、y1、宽w和高h、);2、置信度(预测边界框中含有目标的概率);3、属于6个特征部位的分类得分C1、C2、C3、C4、C5、C6。第三种大尺度上的预测方法:首先将中小尺度预测方法中的中小尺度特征融合图26*26*256,经过卷积操作(卷积核1大小1*1,128个)得到26*26*128特征图,再经过上采样操作得到52*52*128特征图,与特征提取步骤输出的大尺度特征图52*52*256进行拼接操作,得到52*52*384的多尺度融合特征图,在经过三次卷积操作(卷积核1的大小为1*1,128个,卷积核2的大小为1*1,256个,卷积核3大小为1*1,33个),输出52*52*33维的多尺度融合预测结果,其含义为将原图等分为52*52个网格,每个网格中心预测3个边界框,每个边界框预测三种信息:1、边框位置(中心点坐标x1、y1、宽w和高h、);2、置信度(预测边界框中含有目标的概率);3、属于6个特征部位的分类得分C1、C2、C3、C4、C5、C6。
在上述得到的小尺度预测结果13*13*33、中小尺度融合预测结果26*26*33、多尺度融合预测结果52*52*33基础之上,首先通过置信度阈值门限选择候选目标框,如,选择置信度预测值大于0.7的目标框作为实际预测目标框,之后根据每个目标的分类得分,选取最大值作为其目标种类。将上述确定了目标种类的目标框通过非极大值抑制运算,将同一目标的所有预测框合并成一个,作为预测结果。
在本实施例中,牛的两个前蹄中点4到牛两个后蹄中点5的连线与地面标注线的夹角为站姿偏角,计算步骤如下:
(1)先做地面标注,在测量区域,垂直于镜头平面每间隔20公分做一条标注线,计算出每一个区域内的标定参数An,(n=1,2,3,4,5),每个区域的实际距离是20cm,从获取到的图中中可以得到每个区域的像素距离,也就是图像距离;
(2)从获取的图片中,利用两个前蹄和两个后蹄的像素坐标分别求得前蹄中点4的像素坐标和后蹄中点5的像素坐标。然后利用第一步得到的标定参数,将像素坐标转换成实际坐标;
(3)前蹄中点4和后蹄中点5的实际坐标和标注线的平行线构建一个直角三角形,利用三角函数公式,计算站姿偏角的大小。
在本实施例中,垂直地面的每个区域分别有一个垂直地面的标定面和对应的标定参数,垂直地面的标定面的标定参数Kn的计算步骤如下:
(1)垂直地面的标定面由棋盘格组成,测出实际的每一个黑色的小方块的边长,测得的距离就是实际距离,然后用摄像头获得每一个黑色的小方块的像素距离;
(2)垂直地面的标定面的标定参数Kn,(n=1,2,3,4,5)。
在本实施例中,所述体尺测量算法利用输入特征部位中心点坐标、标定参数和站姿偏角来计算牛的身高、体长、体斜长、胸围、后躯宽、胸围长。
实施例2:
以牛头在牛尾的左侧为例,通过以下步骤来判断牛蹄的类别:
(1)因为牛头在牛尾的左侧,根据像素坐标位置,从牛头中心点到牛尾中心点做一条虚线,从牛头到牛尾依次为前蹄(①②)、后蹄(③④);
(2)根据第一步已判断出前蹄和后蹄,并且中牛头在牛尾的左侧,按照地面标注面落点靠近前侧基准线的牛蹄为牛左前蹄(即①为牛左前蹄),另一只为牛左后蹄(即③为牛左后蹄);相反的靠近后侧基准线分别为右前蹄(即②为右前蹄)、右后蹄(即④为右后蹄)。
实施例3:
本实施例列举了如下五种牛体高的计算方法:
方法一:
(1)利用了牛躯干特征框
(2)如图1所示,获取牛躯干的特征框高度H1,即为牛的像素体高。
(3)选取牛所在平面区域的标定参数,利用实际体高等于像素体高乘以标定参数得到实际体高S。
(4)计算公式如下:
S=H1*Kn(Kn为牛所在平面的标定参数)
方法二:
(1)利用了牛躯干特征框,牛蹄特征框。
(2)获取牛躯干的特征框角点坐标(X1,Y1),两个牛前蹄中点4坐标(X2,Y2)。用Y2-Y1得到牛的像素体高。
(3)选取牛所在平面区域的标定参数,利用实际体高等于像素体高乘以标定参数得到实际体高S。
(4)计算公式如下:
S=(Y2-Y1)*Kn(Kn为牛所在平面的标定参数)
方法三:
(1)利用了牛躯干特征框,牛蹄特征框。
(2)获取牛躯干的特征框角点坐标(X1,Y1),两个牛前蹄中点4坐标(X2,Y2)。用Y2-Y1得到牛的像素体高。
(3)选取牛所在平面区域的标定参数,利用实际体高等于像素体高乘以标定参数得到实际体高S。
(4)计算公式如下:
S=(Y2-Y1)*Kn(Kn为牛所在平面的标定参数)
方法四:
(1)利用了牛蹄特征框,牛尻特征框。
(2)获取牛尻的特征框角点坐标(X1,Y1),两个牛前蹄中点4坐标(X2,Y2)。用Y2-Y1得到牛的像素体高。
(3)选取牛所在平面区域的标定参数,利用实际体高等于像素体高乘以标定参数得到实际体高S。
(4)计算公式如下:
S=(Y2-Y1)*Kn(Kn为牛所在平面的标定参数)
方法五:
(1)利用了牛蹄特征框,牛尻特征框。
(2)获取牛尻的特征框角点坐标(X1,Y1),两个牛前蹄中点4坐标(X2,Y2)。用Y2-Y1得到牛的像素体高。
(3)选取牛所在平面区域的标定参数,利用实际体高等于像素体高乘以标定参数得到实际体高S。
(4)计算公式如下:
S=(Y2-Y1)*Kn(Kn为牛所在平面的标定参数)
实施例4:
本实施例列举了如下六种牛体长的计算方法:
方法一:
(1)利用了牛的特征框和牛头的特征框。
(2)先获取牛的特征框的的像素长度L1,然后获取牛头的特征框的像素长度L2,牛体长的像素长度为牛的特征框的像素长度减去牛头的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛体长的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛特征框的角点坐标(X2,Y2)与牛头特征框角点坐标(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体长等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
方法二:
(1)利用了牛的躯干特征框。
(2)先获取牛躯干的特征框的的像素长度L1,牛体长的像素长度为牛躯干的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛体长的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛特征框的角点坐标(X2,Y2)和(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体长等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
方法三:
(1)利用了牛尻的特征框和牛头的特征框。
(2)先获取牛尻的特征框的的像素长度L1,然后获取牛头的特征框的像素长度L2,牛体长的像素长度为牛尻的特征框的像素长度减去牛头的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛体长的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛尻特征框的角点坐标(X2,Y2)与牛头特征框角点坐标(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体长等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
方法四:
(1)利用了左后蹄的特征框和左前蹄的特征框。
(2)先获取左后蹄的特征框的的像素长度L1,然后获取左前蹄的特征框的像素长度L2,牛体长的像素长度为左后蹄的特征框的像素长度减去左前蹄的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛体长的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛左后蹄特征框的角点坐标(X2,Y1)与牛左前蹄特征框角点坐标(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体长等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
方法五:
(1)利用了右后蹄的特征框和右前蹄的特征框。
(2)先获取右后蹄的特征框的的像素长度L1,然后获取右前蹄的特征框的像素长度L2,牛体长的像素长度为右后蹄的特征框的像素长度减去右前蹄的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛体长的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛右后蹄特征框的角点坐标(X2,Y1)与牛右前蹄特征框角点坐标(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体长等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
方法六:
(1)利用了后关节的特征框和前关节的特征框。
(2)先获取后关节的特征框的的像素长度L1,然后获取前关节的特征框的像素长度L2,牛体长的像素长度为后关节的特征框的像素长度减去前关节的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛体长的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛后关节特征框的角点坐标(X2,Y1)与牛前关节特征框角点坐标(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体斜长等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
实施例5:
本实施例列举了如下牛体尺体斜长的计算方法:
(1)利用了牛躯干特征框,牛关节特征框
(2)当牛蹄与地面标定面平行时,通过牛躯干特征框的角点坐标(X1.Y1)与牛关节特征框角点坐标(X2,Y2)求出两点间距离L1,即为牛的像素体斜长。
(3)选取牛所在平面区域的标定参数,利用实际体斜长等于像素体斜长乘以标定参数得到实际体斜长S。
(4)计算公式如下:
S=L1*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛躯干特征框的角点坐标(X1.Y1)与牛关节特征框角点坐标(X2,Y2)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素体斜长等于L1/cosθ。
(6)选取牛所在平面区域的标定参数,利用实际体斜长等于像素体斜长乘以标定参数得到实际体斜长S。
(7)计算公式如下:
S=[L1/cosθ]*Kn(Kn为牛所在平面的标定参数)
实施例6:
本实施例列举了如下牛体尺后躯宽的计算方法:
(1)利用了牛的后躯的特征框。
(2)先获取牛后躯的特征框的的像素长度L1,牛后躯宽的像素长度为牛后躯的特征框的像素长度。
(3)选取牛所在平面区域的标定参数的,利用实际长度等于像素长度乘以标定参数等于实际长度可以得到牛后躯宽的实际长度S。
(4)计算公式如下:
S=(X2-X1)*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过牛后躯宽特征框的角点坐标(X2,Y1)和(X1,Y1)求出两点间距离L1,通过站姿偏角计算方法可以求出牛的像素后躯宽等于L1/cosθ。
(6)计算公式如下:
S=(L1/cosθ)*Kn(Kn为牛所在平面的标定参数)
实施例7:
本实施例列举了牛体尺胸围长的计算方法:
(1)利用了后肚宽特征框。
(2)当牛蹄与地面标定面平行时,获取后肚宽的特征框长度L1,则胸围的像素周长等于π*L1。
(3)选取牛所在平面区域的标定参数,利用实际胸围长等于像素胸围长乘以标定参数得到实际胸围长S。
(4)计算公式如下:
S=π*L1*Kn(Kn为牛所在平面的标定参数)
(5)当牛蹄与地面标定面不平行时,通过站姿偏角计算方法可以求出牛的像素后肚宽长度等于L1/cosθ。
(6)选取牛所在平面区域的标定参数,利用实际胸围长等于像素胸围长乘以标定参数得到实际胸围长S。
S=π*L1/cosθ*Kn(Kn为牛所在平面的标定参数)
本申请通过站姿纠偏,使得不管牛以任何站姿站立在摄像头前,都可以采集到有效的特征部位坐标信息,降低了测量难度,提高了工作效率;将深度学习和特征部位检测的技术用于牛体尺的测量,使得牛体尺测量的方法更为便捷,提高了测量效率,降低了测量成本;通过采用侧身摄像头、尾部摄像头采集牛的图像,不需要人工手工测量,提高了测量的工作效率,降低了测量的劳动强度和测量难度,也避免了安全隐患;采用特征部位监测模型处理输入图像,再输出特征部位坐标信息,提高了图像采集和图像信息处理的效率,降低了测量成本;采用体尺测量算法根据坐标信息计算牛的体尺数据,提高了数据处理速度,降低了测量成本。
上述说明示出并描述了本发明的优选实施例,如前所述,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (10)

1.基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于,包括如下步骤:
步骤一,设置一测量系统,其包括地面标注面(1)、侧身摄像头(2)、尾部摄像头(3)和图像服务器,侧身摄像头(2)采集牛的侧身图像传输至所述图像服务器,所述尾部摄像头(3)采集牛的尾部图像传输至所述图像服务器,所述图像服务器包括特征部位检测模型和体尺测量算法;
步骤二,安装地面标注面(1),所述地面标注面(1)为铺设在地面上的长方形地板,包括六条标注线,五个地面标注面区域,每个地面标注面区域都是长方形,长度不固定,宽度是20cm,在每块的地面标注面区域的宽取中心取竖直向上的竖直面作为竖直标定面,和侧身摄像头(2)、尾部摄像头,所述侧身摄像头(2)和所述尾部摄像头(3)通过伸缩勾吊挂屋顶上,所述侧身摄像头(2)和尾部摄像头(3)与图像服务器通过以太网连接;
步骤三,使牛站在地面标注面(1)上,打开侧身摄像头(2)和尾部摄像头(3),侧身摄像头(2)和尾部摄像头(3)分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位位置,计算地面标定参数An和垂直地面的标定面的标定参数Kn;
步骤四,判断站姿和确定站姿偏角θ,牛的两个前蹄中点(4)到牛两个后蹄中点(5)的连线与地面标注线的夹角为站姿偏角θ,使牛站在地面标注面(1)上,打开侧身摄像头(2)和尾部摄像头(3),侧身摄像头(2)和尾部摄像头(3)分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,计算站姿偏角θ;
步骤五,侧身摄像头(2)和尾部摄像头(3)分别传输侧身图像和尾部图像给所述特征部位检测模型,所述特征部位检测模型处理输入图像,输出特征部位坐标信息,根据步骤三和步骤四的公式获得地面标定参数An、垂直地面的标定面的标定参数Kn和站姿偏角θ,根据比例获得牛的体尺数据。
2.根据权利要求1所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于,步骤三中,先做地面标注,在测量区域,垂直于镜头平面每间隔20cm做一条标注线,计算出每一个区域内的标定参数An,n=1,2,3,4,5,其中每个区域的实际距离是20cm,从获取到的图中可以得到每个区域的像素距离,也就是图像距离。
3.根据权利要求1所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于,垂直地面的每个区域分别有一个垂直地面的标定面和对应的标定参数,垂直地面的标定面的标定参数Kn的计算步骤如下:
(1)垂直地面的标定面由棋盘格组成,测出实际的每一个黑色的小方块的边长,测得的距离就是实际距离,然后用摄像头获得每一个黑色的小方块的像素距离;
(2)垂直地面的标定面的标定参数Kn,n=1,2,3,4,5。
4.根据权利要求1所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于,步骤三中,牛的两个前蹄中点(4)到牛两个后蹄中点(5)的连线与地面标注线的夹角为站姿偏角,站姿偏角的计算步骤如下:
(1)从获取的图片中,利用两个前蹄和两个后蹄的像素坐标分别求得前蹄中点(4)的像素坐标和后蹄中点(5)的像素坐标。然后利用步骤三得到的标定参数An,将像素坐标转换成实际坐标;
(2)前蹄中点(4)和后蹄中点(5)的实际坐标和标注线的平行线构建一个直角三角形,利用三角函数公式,计算站姿偏角的大小。
5.根据权利要求1所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于:所述特征部位检测模型包括特征部位数据集、特征部位检测方法。
6.根据权利要求5所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于:所述特征部位数据集包括牛图像和标定文件;所述牛图像包括单只或多只牛正面、侧身、背部图像,特征部位名称有牛、牛头、牛躯干、牛蹄、关节、牛尻;所述标定文件给出牛、牛头、牛躯干、牛蹄、关节、牛尻的边框的标签和坐标信息。
7.根据权利要求6所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于:所述标定文件采用xml格式文件,文件中列出图像基本信息,包括xml文件名,xml文件保存路径,图片尺寸,特征部位名称,特征部位像素坐标。
8.根据权利要求5所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于:所述特征部位检测方法采用两步法时,包括特征提取网络、候选框推选方法、候选框分类和回归网络;即先特征提取网络提取图像特征,输入图像经过5个卷积块,最终得到512个高14像素、宽14像素的特征图,在所述特征图上以每个像素点作为锚anchor的中心点,在原图中生成6个锚框,目标候选框推选网络通过卷积层将14*14*512的矩阵变成6个预测框的坐标偏移值14*14*24和对应锚框属于目标的概率值14*14*6,将目标候选框推选网络输出中属于目标的概率大于0.6的预测框的特征送入分类网络和回归网络,输出特征部位类别分类得分和边框坐标预测值。
9.根据权利要求1所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于:所述特征部位检测方法采用一步法时,检测步骤包括特征提取和特征位置预测及分类,首先通过特征提取网络提取输入图像的多尺度特征,每个尺度上分别预测特征部位,并将所有尺度的预测结果按照置信度预测值排序,选出超过预测值门限的候选框通过非极大值抑制方法得到目标的识别位置和种类。
10.根据权利要求1所述的基于深度学习的牛体尺测量系统中站姿纠偏的方法,其特征在于:所述体尺测量算法利用输入特征部位中心点坐标、标定参数和站姿偏角来计算牛的身高、体长、体斜长、胸围、后躯宽、胸围长。
CN201910361644.6A 2019-04-30 2019-04-30 基于深度学习的牛体尺测量系统中站姿纠偏的方法 Pending CN110097005A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910361644.6A CN110097005A (zh) 2019-04-30 2019-04-30 基于深度学习的牛体尺测量系统中站姿纠偏的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910361644.6A CN110097005A (zh) 2019-04-30 2019-04-30 基于深度学习的牛体尺测量系统中站姿纠偏的方法

Publications (1)

Publication Number Publication Date
CN110097005A true CN110097005A (zh) 2019-08-06

Family

ID=67446595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910361644.6A Pending CN110097005A (zh) 2019-04-30 2019-04-30 基于深度学习的牛体尺测量系统中站姿纠偏的方法

Country Status (1)

Country Link
CN (1) CN110097005A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907546A (zh) * 2021-02-25 2021-06-04 北京农业信息技术研究中心 肉牛体尺非接触测量装置及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101094413A (zh) * 2007-07-06 2007-12-26 浙江大学 用于视频监控的实时运动检测方法
CN101904748A (zh) * 2009-06-02 2010-12-08 上海仪器仪表研究所 奶牛体态数据影像测量采集方法
CN105554415A (zh) * 2016-02-03 2016-05-04 中国农业科学院北京畜牧兽医研究所 一种新疆褐牛体尺指标测量系统
US20170243077A1 (en) * 2016-02-18 2017-08-24 Fuji Xerox Co., Ltd. Image processing apparatus and non-transitory computer readable medium
CN107180438A (zh) * 2017-04-26 2017-09-19 清华大学 估计牦牛体尺、体重的方法和相应的便携式计算机装置
CN207081412U (zh) * 2017-09-08 2018-03-09 新疆农业大学 一种动物体尺超声无接触测量装置
CN108509860A (zh) * 2018-03-09 2018-09-07 西安电子科技大学 基于卷积神经网络的可可西里藏羚羊检测方法
CN108805980A (zh) * 2018-07-17 2018-11-13 新疆农业大学 一种基于3d的马体尺测量系统及数据修正方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101094413A (zh) * 2007-07-06 2007-12-26 浙江大学 用于视频监控的实时运动检测方法
CN101904748A (zh) * 2009-06-02 2010-12-08 上海仪器仪表研究所 奶牛体态数据影像测量采集方法
CN105554415A (zh) * 2016-02-03 2016-05-04 中国农业科学院北京畜牧兽医研究所 一种新疆褐牛体尺指标测量系统
US20170243077A1 (en) * 2016-02-18 2017-08-24 Fuji Xerox Co., Ltd. Image processing apparatus and non-transitory computer readable medium
CN107180438A (zh) * 2017-04-26 2017-09-19 清华大学 估计牦牛体尺、体重的方法和相应的便携式计算机装置
CN207081412U (zh) * 2017-09-08 2018-03-09 新疆农业大学 一种动物体尺超声无接触测量装置
CN108509860A (zh) * 2018-03-09 2018-09-07 西安电子科技大学 基于卷积神经网络的可可西里藏羚羊检测方法
CN108805980A (zh) * 2018-07-17 2018-11-13 新疆农业大学 一种基于3d的马体尺测量系统及数据修正方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907546A (zh) * 2021-02-25 2021-06-04 北京农业信息技术研究中心 肉牛体尺非接触测量装置及方法
CN112907546B (zh) * 2021-02-25 2024-04-05 北京农业信息技术研究中心 肉牛体尺非接触测量装置及方法

Similar Documents

Publication Publication Date Title
Goodbody et al. Assessing the status of forest regeneration using digital aerial photogrammetry and unmanned aerial systems
Malambo et al. Automated detection and measurement of individual sorghum panicles using density-based clustering of terrestrial lidar data
Ferraz et al. Lidar detection of individual tree size in tropical forests
Chabot et al. Computer‐automated bird detection and counts in high‐resolution aerial images: a review
Pascual et al. Object-based semi-automatic approach for forest structure characterization using lidar data in heterogeneous Pinus sylvestris stands
CN109635875A (zh) 一种基于深度学习的端到端网口检测方法
CN107679503A (zh) 一种基于深度学习的人群计数算法
Uuttera et al. Determination of the spatial distribution of trees from digital aerial photographs
CN109409190A (zh) 基于梯度直方图和Canny边缘检测器的行人检测方法
CN110532852A (zh) 基于深度学习的地铁站行人异常事件检测方法
Liu et al. Automatic estimation of dairy cattle body condition score from depth image using ensemble model
CN102915446A (zh) 基于svm机器学习的植物病虫害检测方法
CN109141248A (zh) 基于图像的猪体重测算方法及系统
CN109934230A (zh) 一种基于视觉辅助的雷达点云分割方法
CN103489006A (zh) 一种基于计算机视觉的水稻病虫草害诊断方法
CN110136192A (zh) 一种基于深度学习和特征部位检测的牛体尺算法
CN104715251B (zh) 一种基于直方图线性拟合的显著目标检测方法
CN109978937A (zh) 一种基于深度学习和特征部位检测的牛体尺测量系统
CN109636779A (zh) 识别家禽体积体尺的方法、装置及存储介质
CN105466523B (zh) 基于单摄像机图像的堆粮高度的测量方法和装置
CN110307903A (zh) 一种家禽特定部位无接触温度动态测量的方法
CN108734200A (zh) 基于bing特征的人体目标视觉检测方法和装置
CN110188657A (zh) 基于卷曲叶片检测的玉米干旱识别方法
CN112668461A (zh) 一种具有野生动物识别的智能监管系统
Bai et al. Quantifying tree cover in the forest–grassland ecotone of British Columbia using crown delineation and pattern detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190806