CN116763295B - 牲畜体尺测量方法、电子设备及存储介质 - Google Patents
牲畜体尺测量方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116763295B CN116763295B CN202311008934.5A CN202311008934A CN116763295B CN 116763295 B CN116763295 B CN 116763295B CN 202311008934 A CN202311008934 A CN 202311008934A CN 116763295 B CN116763295 B CN 116763295B
- Authority
- CN
- China
- Prior art keywords
- point
- livestock
- point cloud
- depth
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 244000144972 livestock Species 0.000 title claims abstract description 140
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000013507 mapping Methods 0.000 claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 12
- 239000011159 matrix material Substances 0.000 claims description 45
- 210000001624 hip Anatomy 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 24
- 238000013519 translation Methods 0.000 claims description 19
- 210000001217 buttock Anatomy 0.000 claims description 15
- 210000001981 hip bone Anatomy 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000000691 measurement method Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- ORFSSYGWXNGVFB-UHFFFAOYSA-N sodium 4-amino-6-[[4-[4-[(8-amino-1-hydroxy-5,7-disulfonaphthalen-2-yl)diazenyl]-3-methoxyphenyl]-2-methoxyphenyl]diazenyl]-5-hydroxynaphthalene-1,3-disulfonic acid Chemical compound COC1=C(C=CC(=C1)C2=CC(=C(C=C2)N=NC3=C(C4=C(C=C3)C(=CC(=C4N)S(=O)(=O)O)S(=O)(=O)O)O)OC)N=NC5=C(C6=C(C=C5)C(=CC(=C6N)S(=O)(=O)O)S(=O)(=O)O)O.[Na+] ORFSSYGWXNGVFB-UHFFFAOYSA-N 0.000 claims description 4
- 238000002955 isolation Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 22
- 238000001514 detection method Methods 0.000 abstract description 12
- 238000011161 development Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 230000036544 posture Effects 0.000 abstract description 3
- 241001494479 Pecora Species 0.000 description 13
- 230000018109 developmental process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000009395 breeding Methods 0.000 description 3
- 230000001488 breeding effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000010755 BS 2869 Class G Substances 0.000 description 1
- 239000009636 Huang Qi Substances 0.000 description 1
- 229940107666 astragalus root Drugs 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 244000144977 poultry Species 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 206010048282 zoonosis Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1072—Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1077—Measuring of profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明属于畜牧设施技术领域,尤其涉及一种牲畜体尺测量方法、电子设备及存储介质,搭建基于深感相机的数据采集平台,通过神经网络、映射原理和三维点云处理技术等研究牲畜自动检测关键点的方法,计算牲畜体尺参数,精准测量出各姿态牲畜的体尺参数,减少体尺测量中的限制因素,提高牲畜体尺测量的精度与检测速度,增加体尺测量算法的实用性,为牲畜的自动化体尺测量等提供理论依据和技术支撑,推动现代养殖场智能化发展。
Description
技术领域
本发明属于畜牧设施技术领域,涉及图像处理技术,尤其涉及一种牲畜体尺测量方法、电子设备及存储介质。
背景技术
牲畜养殖业能够促进农民脱贫增收,推动农业农村发展,助力乡村振兴建设。在牲畜饲养管理过程中,牲畜体尺参数可以反应牲畜生长发育情况、生产性能和遗传特征。因此,研究体尺参数测量及其形态评价是决定牲畜合理养殖和提高养殖效益的有效途径。
长期以来,养殖场中主要依靠卷尺、测量杆和测量仪等仪器,人工手动测量牲畜体尺参数。在进行牲畜体尺数据采集时,对牲畜站姿要求严格。这些原因导致了人工测量方式工作量大、效率低,且人工测量方式具有较强的主观性,在直接接触牲畜进行测量时,牲畜可能会产生应激反应,影响其生产性能和生长发育。另外,人与牲畜的直接接触,也增加了人畜共患病的传播几率。
发明内容
本发明提供一种牲畜体尺测量方法、电子设备及存储介质,搭建基于深感相机的数据采集平台,通过神经网络、映射原理和三维点云处理技术等研究牲畜自动检测关键点的方法,计算牲畜体尺参数,为牲畜的自动化体尺测量等提供理论依据和技术支撑,推动现代养殖场智能化发展。
本发明提供一种牲畜体尺测量方法,包括如下步骤:
S1、搭建采集平台:以四周添加护栏的形式围成采集区域,牲畜位于所述采集区域,在所述采集区域两侧设置深感相机;
S2、采用两侧的所述深感相机对牲畜进行数据采集,获得牲畜的彩色图像和原始点云数据;
S3、对步骤S2获取的原始点云数据进行预处理,去除噪声点云数据,获得去噪点云信息;
S4、对步骤S3得到的去噪点云信息进行点云配准,构建完整牲畜三维模型;
S5、在步骤S2获得的彩色图像上标注牲畜体尺关键点,采用DeepLabCut算法识别所述关键点,确定标注的关键点在彩色图像上的二维坐标;
S6、将步骤S5确定的关键点的二维坐标映射到步骤S4构建的牲畜三维模型中,获得关键点在牲畜三维模型中的三维坐标;
S7、利用步骤S6中获得的关键点在牲畜三维模型中的三维坐标,结合空间距离公式进行牲畜体尺计算。
根据本发明提供的牲畜体尺测量方法,步骤S3中对原始点云数据进行预处理具体过程如下:
S31、对原始点云数据进行体素下采样处理,获得下采样点云数据;
S32、在步骤S31的下采样点云数据基础上进行离群点噪声去除处理;
S33、在经过步骤S32处理后的点云数据中去除背景栏杆的点云数据。
根据本发明提供的牲畜体尺测量方法,步骤S4中的点云配准过程为:基于深感相机内外参数计算出变换矩阵,然后使用迭代最近点算法对预处理后的去噪点云信息进行点云精配准,构建成完整牲畜三维模型。
根据本发明提供的牲畜体尺测量方法,基于深感相机内外参数计算出变换矩阵的具体过程为:
S41、使用纯蓝色平面贴纸作为标定物,放置在两侧深感相机拍摄范围内,采集深感相机拍摄的标定物的彩色图,以及深感相机拍摄的标定物的深度图像;
S42、在彩色图分离出蓝色区域/>,生成二值化的掩膜图像/>,掩膜图像上的白色区域对应为彩色图/>的蓝色区域,掩膜图像上的黑色区域对应为彩色图的非蓝色区域;
S43、将掩膜图像上的白色区域映像至对应的深感相机拍摄的标定物的深度图像上,结合相机内参数,匹配彩色图的蓝色区域对应深度图像上的点云信息,生成初始旋转矩阵与初始平移矩阵;
S44、以一侧深感相机的世界坐标系作为主坐标,通过对初始旋转矩阵以及初始平移矩阵关系矩阵数值进行迭代计算和调整,实现两侧深感相机点云完全重合,记录调整后的旋转矩阵R与平移矩阵T,R与T的关系如公式1所示:
公式1。
根据本发明提供的牲畜体尺测量方法,迭代计算和调整初始旋转矩阵以及初始平移矩阵的方法如下:
将彩色图的蓝色区域对应深度图像上的点云信息记作待配准点云P和待配准点云Q,在待配准点云P中任意选择一点,记为/>,从待配准点云Q中查找一个距离/>欧氏距离最短的点,记为/>,/>和/>为对应点,采用公式2进行多次迭代和调整,实现待配准点云P和待配准点云Q重合,
公式2
最终获得调整后的旋转矩阵R与平移矩阵T。
根据本发明提供的牲畜体尺测量方法,步骤S5中,采用DeepLabCut算法识别所述关键点的过程为:
S51、提取需标记的多帧彩色图像,置于DeepLabCut项目管理器中;
S52、使用标记工具在步骤S51提取的彩色图像上进行人工标注牲畜体尺关键点,生成训练数据集;
S53、对步骤S52生成的训练数据集进行网络模型训练,进而确关键点在彩色图像中的二维坐标。
根据本发明提供的牲畜体尺测量方法,步骤S5中牲畜体尺关键点至少包括:
在左侧深感相机获取的彩色图像上进行人工标注的耆甲点、坐骨结节点、肩部左侧最宽点、臀部左侧最宽点、髋骨中心点、耆甲点地面映射点和髋骨中心点地面映射点;
在右侧深感相机获取的彩色图像上进行人工标注的耆甲点、坐骨结节点、肩部右侧最宽点、臀部右侧最宽点、髋骨中心点、耆甲点地面映射点和髋骨中心点地面映射点。
根据本发明提供的牲畜体尺测量方法,步骤S7中的牲畜体尺包括体长、体宽、臀宽、体高和臀高5项体尺参数中的至少一种,其中:
所述耆甲点到所述髋骨中心点的距离与所述髋骨中心点到所述坐骨结节点的距离之和为所述体长;
所述肩部左侧最宽点到所述肩部右侧最宽点的距离为所述体宽;
所述臀部左侧最宽点到所述臀部右侧最宽点的距离为所述臀宽;
所述耆甲点到地面的垂直距离为所述体高;
所述髋骨中心点到地面的垂直距离为所述臀高。
根据本发明提供的牲畜体尺测量方法,步骤S6中,将步骤S5确定的关键点的二维坐标映射到步骤S4构建的牲畜三维模型中之前要先进行偏移点坐标优化,具体操作方法为:
S61、采用两侧的所述深感相机对牲畜进行数据采集,获得牲畜的深度图像;
S62、人工识别步骤S5确定的关键点的二维坐标,确定哪些关键点为偏移点;
S63、以步骤S61确定的偏移点在步骤S61获得的深度图像中的像素坐标为中心,向外扩张一个矩形像素区域,计算矩形像素区域的深度数据集合,用集合内的非零最小值替换偏移点的深度值,优化偏移点坐标。
根据本发明提供的牲畜体尺测量方法,所述矩形像素区域为像素的矩形区域,其中,d为大于0的自然数,从d=1像素开始计算,不断改变d,并以偏移点的深度值作为比对,直到扩张后的矩形区域内的深度值包含偏移点的深度值,然后停止扩张,计算矩形像素区域的深度数据集合。
本发明还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述牲畜体尺测量方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述牲畜体尺测量方法。
本发明提供的牲畜体尺测量方法、电子设备及存储介质,是一种非接触式牲畜体尺测量方法,搭建基于深感相机的数据采集平台,通过神经网络、映射原理和三维点云处理技术等研究牲畜自动检测关键点的方法,计算牲畜体尺参数,精准测量出各姿态牲畜的体尺参数,减少体尺测量中的限制因素,提高牲畜体尺测量的精度与检测速度,增加体尺测量算法的实用性,为牲畜的自动化体尺测量等提供理论依据和技术支撑,推动现代养殖场智能化发展。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的牲畜体尺测量方法的流程示意图之一;
图2是本发明提供的牲畜体尺测量方法的流程示意图之二;
图3是本发明提供的牲畜体尺测量方法的步骤S3的原始点云数据进行预处理的流程示意图;
图4是本发明提供的牲畜体尺测量方法的步骤S4的点云配准过程示意图;
图5是本发明提供的牲畜体尺测量方法的步骤S5的识别关键点过程示意图;
图6是本发明实施例中不同主干网络关键点检测结果对比的模型训练过程损失函数;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一个具体实施例提供一种牲畜体尺测量方法,参见图1和图2所示,包括如下步骤:
S1、搭建采集平台:以四周添加护栏的形式围成矩形采集区域,牲畜位于采集区域,在采集区域左右两侧设置深感相机;
S2、采用两侧的深感相机对牲畜进行数据采集,获得牲畜的彩色图像和原始点云数据;
S3、对步骤S2获取的原始点云数据进行预处理,去除噪声点云数据,获得去噪点云信息;
S4、对步骤S3得到的去噪点云信息进行点云配准,构建完整牲畜三维模型;
S5、在步骤S2获得的彩色图像上标注牲畜体尺关键点,采用DeepLabCut算法识别关键点,确定标注的关键点在彩色图像上的二维坐标;
S6、将步骤S5确定的关键点的二维坐标映射到步骤S4构建的牲畜三维模型中,获得关键点在牲畜三维模型中的三维坐标;
S7、利用步骤S6中获得的关键点在牲畜三维模型中的三维坐标,结合空间距离公式进行牲畜体尺计算。
本实施例的牲畜体尺测量方法,无需人工接触牲畜,通过双深感相机采集不同视角局部点云,由采集设备传送到控制计算机。左右两个视角的三维点云去除噪声点,结合深度信息的特性结合特征物体颜色特性获取初始矩阵,完成不同视角坐标系下点云配准,重构牲畜三维模型,依据DeepLabCut算法和映射原理获取牲畜关键点位置及坐标,结合欧氏距离公式实现牲畜多项体尺数据精确估算,减少体尺测量中的限制因素,提高牲畜体尺测量的精度与检测速度,增加体尺测量算法的实用性,为牲畜的自动化体尺测量等提供理论依据和技术支撑,推动现代养殖场智能化发展。
上述实施例提供的牲畜体尺测量方法,其中,由于环境和深感相机本身的限制,步骤S2获得的初始点云包含大量的离群点和设施噪声点。本实施例步骤S3通过点云下采样、点云噪声去除和背景栏杆去除处理算法,只保留牲畜和地面点云,提升牲畜点云配准精度和速度,参见图3所示,预处理过程包括:
S31、为保留点云的主要特征和形状信息,降低点云复杂度和存储空间,对原始点云数据进行体素下采样:依据数据采集平台尺寸分别设置点云数据的X轴、Y轴、Z轴取值范围,将取值范围内的点云数据离散成合适大小的三维体素网格,其中包含m个点,根据下列公式3计算非空体素的质心代替原始点云数据体素内的所有点,实现点云下采样。
公式3
S32、为去除光照、风速等原因造成的离群值,本步骤采用统计离群点移除法,通过计算上述步骤S31中每个非空体素的质心点到最近k个近邻点的平均距离d和距离阈值筛选离群点。当点满足/>时,则判断该点为离群点进行去除。
距离阈值的计算方式如公式4所示。
公式4
式中,𝜇为所有距离的平均值;为所有距离的标准差;k为标准差乘数。
S33、为去除背景栏杆的点云数据,提高关键点检测精度,本步骤利用欧氏聚类法提取点数最小的类即为牲畜点云数据。将点云数据中的点分成n个类,合并类间距最小的两个类构建新类G,通过公式5计算G与其它各类的最短距离,得到牲畜个体和地面部分的点云数据。
公式5
其中,表示第i个类和第j个类之间的欧氏距离;/>分别表示类中的点。
本发明上述实施例提供的牲畜体尺测量方法中,参见图4所示,步骤S4中的点云配准过程为:基于深感相机内外参数计算出变换矩阵,然后使用迭代最近点算法对预处理后的去噪点云信息进行点云精配准,构建成完整牲畜三维模型。
由于使用深感相机拍摄时,已做好相机内参数标定,包含深感相机光心坐标、焦距、畸变系数等,无需额外进行内参数标定。对于深感相机外参数标定通常选用张正友标定法,需要借助棋盘格进行标定,但由于操作过程较为繁琐,本实施例借助相机具备深度信息的特性结合待测物颜色特性,获取待测物的点云信息。运用点云配准算法获取旋转矩阵、平移矩阵等相机外参数。
具体地,基于深感相机内外参数计算出变换矩阵的具体过程为:
S41、使用一个平面特征物体,表面粘贴纯色贴纸(下面使用纯蓝色举例),无需考虑贴纸大小或者是否规整问题,保证两台相机的视野都能拍摄到贴纸;使用纯蓝色平面贴纸作为标定物,放置在两侧深感相机拍摄范围内,采集深感相机拍摄的标定物的彩色图,以及深感相机拍摄的标定物的深度图像;
S42、在彩色图分离出蓝色区域/>,生成二值化的掩膜图像/>,掩膜图像上的白色区域对应为彩色图/>的蓝色区域,掩膜图像上的黑色区域对应为彩色图的非蓝色区域;
S43、将掩膜图像上的白色区域映像至对应的深感相机拍摄的标定物的深度图像上,结合相机内参数,匹配彩色图的蓝色区域对应深度图像上的点云信息,生成初始旋转矩阵与初始平移矩阵;
S44、以一侧深感相机的世界坐标系作为主坐标,通过对初始旋转矩阵以及初始平移矩阵关系矩阵数值进行迭代计算和调整,实现两侧深感相机点云完全重合,记录调整后的旋转矩阵R与平移矩阵T,R与T的关系如公式1所示:
公式1
迭代计算和调整初始旋转矩阵以及初始平移矩阵的方法如下:
将彩色图的蓝色区域对应深度图像上的点云信息记作待配准点云P和待配准点云Q,在待配准点云P中任意选择一点,记为/>,从待配准点云Q中查找一个距离/>欧氏距离最短的点,记为/>,/>和/>为对应点,得出变换矩阵,经过多次迭代,最终获得最理想的变换矩阵,利用最近点迭代算法(Iterative Closest Point,ICP)实现P、Q两点云重合,最终获得调整后的旋转矩阵R与平移矩阵T。迭代停止的条件如下公式2所示:
公式2
本发明上述实施例提供的牲畜体尺测量方法中,参见图5所示,步骤S5中采用DeepLabCut算法识别关键点的过程为:
S51、提取需标记的多帧彩色图像,置于DeepLabCut项目管理器中;
S52、使用标记工具在步骤S51提取的彩色图像上进行人工标注牲畜体尺关键点,生成训练数据集;
S53、对步骤S52生成的训练数据集进行网络模型训练,进而确关键点在彩色图像中的二维坐标。
上述DeepLabCut算法是一个深度卷积网络,结合了对象识别和语义分割算法中,包含预先训练的ResNets和反卷积层,权重在大规模数据集ImageNet上训练。参见图5所示,首先,在原有的网络基础上去除ResNet结构的分类层,使用反卷积层对视觉信息进行上采样,并产生空间概率密度,概率密度代表了某个身体部位所处的特定位置。在训练过程中,权重以迭代的方式进行调整,基础骨架模型进行了4次下采样,反卷积进行了1次上采样,最终,网络进行了3次下采样。上采样后获得具有关键点分布情况的特征图,并依据呈现出的关键点概率密度情况和向量趋势数据,进而确定关键点具体位置,获取关键点二维坐标。
为获取牲畜关键点检测最佳模型,本实施例选取DeepLabCut算法中的ResNet-50、ResNet-101、ResNet-152、MobileNet v2-1.0、MobileNet-v2-0.75、MobileNet-v2-0.5、MobileNet-v2-0.35、EfficientNet-b0和EfficientNet-b3九个主干网络分别训练,选取最优DeepLabCut算法主干网络模型。九种主干网络模型训练过程的损失函数如图6所示。由图6可知,9个模型均在迭代30000次时收敛,且网络损失值由小到大呈现为EfficientNet系列、ResNet系列、MobileNet系列。EfficientNet-b3模型在整个训练过程中一直保持最低的损失值。
下述记载的表1为9种主干网络模型的性能对比表,对比模型处理速度、内存占用量及检测误差可发现,ResNet模型系列的关键点检测误差较大,且模型内存占用量较大,检测速度除ResNet-152网络外均无明显优势;EfficientNet模型系列在模型处理速度和关键点检测误差均无明显优势;MobileNet系列模型性能较高,其中MobileNet-V2-0.75处理速度可达16.5f/s,但关键点检测误差稍高,精度难以保证,更适合时效性要求高于准确度要求的研究领域;MobileNet-V2-0.35模型内存占用量最少,且该模型在测试集上的误差最小,适合用于高精度测量,因此选用MobileNet-V2-0.35网络模型作为DeepLabCut算法的主干网络。
表1 不同主干网络模型性能对比
本发明上述实施例提供的牲畜体尺测量方法中,步骤S5中牲畜体尺关键点包括但不限于以下关键点:
在左侧深感相机获取的彩色图像上进行人工标注的耆甲点、坐骨结节点、肩部左侧最宽点、臀部左侧最宽点、髋骨中心点、耆甲点地面映射点和髋骨中心点地面映射点;
在右侧深感相机获取的彩色图像上进行人工标注的耆甲点、坐骨结节点、肩部右侧最宽点、臀部右侧最宽点、髋骨中心点、耆甲点地面映射点和髋骨中心点地面映射点。
继而,步骤S7中的牲畜体尺至少包括体长、体宽、臀宽、体高和臀高5项体尺参数,其中:
耆甲点到髋骨中心点的距离与髋骨中心点到坐骨结节点的距离之和为体长;肩部左侧最宽点到肩部右侧最宽点的距离为体宽;臀部左侧最宽点到臀部右侧最宽点的距离为臀宽;耆甲点到地面的垂直距离为体高;髋骨中心点到地面的垂直距离为臀高。
以上体尺关键点的选取以及获取的体尺参数为基本参数信息,还可以有其他关键点的选取和体尺参数的获取,比如以羊只为例,体尺参数可以有体高、臀高、体长、胸高、胸围、腰角宽、耳长、臀端宽、头宽、尻长、头长、腹围、管围、鼻口部周长和胸宽等体尺数据参数,根据需要测量的体尺参数来确定需要进行人工标注的关键点,因此本发明的牲畜体尺测量方法在选取关键点的时候可根据最终要获取的体尺参数进行选取,包括但不限于体长、体宽、臀宽、体高和臀高,可适用于各种牲畜的体尺测量,而且也可推广应用于禽类的体尺测量。
获取彩色图像上的关键点位置和信息坐标后,将其映射到牲畜三维模型中,在依据其配准矩阵与映射后坐标信息计算牲畜体尺参数,利用深感相机的内参计算出深度帧空间和世界空间的对应关系。假设点P是深度图像中的关键点,其在相机空间中对应的3D点为Pc。点P和点Pc之间的关系如公式6所示:
公式6
其中(u,v)和(x,y)分别是P的像素坐标和图像坐标,是相机空间中/>的三维坐标,/>是图像中心的像素坐标,f是相机的焦距。本步骤可以将整个帧从RGB图像映射到深度帧,包括将颜色帧映射到相机空间的功能。整个映射过程可以理解为两个输入和三个输出输出的过程,输入的为二维平面A1中的二维坐标(x1,y1),输出为三维空间B2中的三维坐标(x2,y2,z2),即F(x1,y1)=(x2,y2,z2)。一般情况下,A1平面的z1轴高度即为z2,函数表达式可表达为F(x1,y1,z1)=(x2,y2,z2),若z2值已知,即为F(x1,y1)=(x2,y2),简化成两个输入与两个输出的问题。坐标转换过程中,通过不断的旋转、平移、拉伸和压缩,使得二维图像中所有点都能与三维点云中的点相对应。由于该过程始终为均匀变化,因此,只需确定平面上两个点和三维点云上两个确定点重合,其他点也将重合。即判断出平面伸缩、平移和旋转的规律,依据变化前平面上某一随机的点,就可计算出平面变化后这个点会与三维点云中的哪个点重合。
采集图像过程中,牲畜腹部与地面区域存在重合,导致牲畜部分深度值缺失,上述通过DeepLabCut算法识别的部分关键点偏移,因此,在本实施例中,步骤S6中,将步骤S5确定的关键点的二维坐标映射到步骤S4构建的牲畜三维模型中之前要先进行偏移点坐标优化,具体操作方法为:
S61、采用两侧的深感相机对牲畜进行数据采集,获得牲畜的深度图像(在步骤S2获取牲畜的彩色图像和原始点云数据时候,同时获取牲畜的深度图像);
S62、人工识别步骤S5确定的关键点的二维坐标,确定哪些关键点为偏移点;
S63、以步骤S61确定的偏移点在步骤S61获得的深度图像中的像素坐标为中心,向外扩张一个矩形像素区域,计算矩形像素区域的深度数据集合,用集合内的非零最小值替换偏移点的深度值,优化偏移点坐标。
矩形像素区域为像素的矩形区域,其中,d为大于0的自然数,从d=1像素开始计算,不断改变d,并以偏移点的深度值作为比对,直到扩张后的矩形区域内的深度值包含偏移点的深度值,然后停止扩张,计算矩形像素区域的深度数据集合。
优化偏移点坐标后,结合空间距离公式进行体长、体宽、臀宽和臀高、体高数据的计算,部署边缘计算实现数据的实时采集与计算。
结合地面方程和各体尺参数对应的关键点坐标计算牲畜体长、体宽、臀宽、体高和臀高5项参数。设地面平面方程为,牲畜体尺关键点耆甲点,髋骨中心点坐标为/>,坐骨结节点/>,肩部和臀部两侧关键点为和/>。
牲畜点云数据中,耆甲点到髋骨中心点和髋骨中心点到坐骨结节点的距离之和为体长L,依据欧氏距离公式计算如下公式7所示:
公式7
左右两侧肩部、臀部关键点之间的距离分别为体宽和臀宽,依据欧式距离公式计算牲畜宽度参数W,如下公式8所示:
公式8
耆甲点和髋骨中心点到地面的垂直距离分别为体高和臀高,牲畜高度参数H计算公式,如下公式9所示:
公式9
以下,以羊只体尺测量为例验证本发明提供的牲畜体尺测量方法,为获取羊只体尺参数,使用DeepLabCut算法检测羊只关键点,结合欧式距离公式计算。利用人工标注方法和本研究体尺测点提取方法,在获取测试数据的基础上,针对每只羊选取50组RGB-D图像进行体长、体宽、臀宽和体高、臀高测量,50组测量结果的平均值作为各体尺参数的真实值。每只羊人工测量三次,取三次测量结果的平均值作为真实值,羊只体尺测量真实值与实际值的结果如表2所示。
表2 体尺测量实际值与真实值结果对比表
;/>
由表2可知,体长的平均绝对误差为1.20cm,体宽的平均绝对误差为0.68cm,臀宽的平均绝对误差为0.63cm,体高的平均绝对误差为0.94cm,臀高的平均绝对误差为0.79cm。其中,6号羊的体高误差较大,主要原因是深度相机分辨率较高,数据采集时存在少量粉尘在羊体上空漂浮,体高关键点提取方法误将粉尘误认为羊体躯干上一部分,将粉尘到深度相机平面的距离看作是羊体到相机平面的距离,体高关键点选取错误。2号羊的体宽误差较大,主要原因是,数据采集时阳光照射较强,导致彩色图像和羊只点云图像的肩部关键点区域信息缺失。
本发明还提供一种电子设备,如图7所示,该电子设备可以包括:处理器(processor)、通信接口(Communications Interface)、存储器(memory)和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信。处理器可以调用存储器中的逻辑指令,以执行上述实施例提供的牲畜体尺测量方法。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的牲畜体尺测量方法。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的牲畜体尺测量方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (11)
1.一种牲畜体尺测量方法,其特征在于,包括如下步骤:
S1、搭建采集平台:以四周添加护栏的形式围成采集区域,牲畜位于所述采集区域,在所述采集区域两侧设置深感相机;
S2、采用两侧的所述深感相机对牲畜进行数据采集,获得牲畜的彩色图像和原始点云数据;
S3、对步骤S2获取的原始点云数据进行预处理,去除噪声点云数据,获得去噪点云信息;
S4、基于深感相机内外参数计算出变换矩阵,然后使用迭代最近点算法对步骤S3得到的去噪点云信息进行点云精配准,构建成完整牲畜三维模型;
S5、在步骤S2获得的彩色图像上标注牲畜体尺关键点,采用DeepLabCut算法识别所述关键点,确定标注的关键点在彩色图像上的二维坐标;
S6、利用深感相机的内参数计算出深度帧空间和世界空间的对应关系,将步骤S5确定的关键点的二维坐标映射到步骤S4构建的牲畜三维模型中,映射过程中,通过不断的旋转、平移、拉伸和压缩,使得彩色图像中所有关键点都能与三维模型中的点相对应,判断出平面伸缩、平移和旋转的规律,依据变化前彩色图像中的关键点的坐标,判断出平面变化后这个关键点坐标与三维模型中的重合点,将重合点的三维坐标记作该关键点在牲畜三维模型中的三维坐标,最终获得所有关键点在牲畜三维模型中的三维坐标;
S7、利用步骤S6中获得的关键点在牲畜三维模型中的三维坐标,结合空间距离公式进行牲畜体尺计算。
2.根据权利要求1所述的牲畜体尺测量方法,其特征在于,步骤S3中对原始点云数据进行预处理具体过程如下:
S31、对原始点云数据进行体素下采样处理,获得下采样点云数据;
S32、在步骤S31的下采样点云数据基础上进行离群点噪声去除处理;
S33、在经过步骤S32处理后的点云数据中去除背景栏杆的点云数据。
3.根据权利要求1所述的牲畜体尺测量方法,其特征在于,步骤S4中基于深感相机内外参数计算出变换矩阵的具体过程为:
S41、使用纯蓝色平面贴纸作为标定物,放置在两侧深感相机拍摄范围内,采集深感相机拍摄的标定物的彩色图、/>,以及深感相机拍摄的标定物的深度图像;
S42、在彩色图、/>分离出蓝色区域/>,生成二值化的掩膜图像/>,掩膜图像上的白色区域对应为彩色图/>、/>的蓝色区域,掩膜图像上的黑色区域对应为彩色图/>、/>的非蓝色区域;
S43、将掩膜图像上的白色区域映像至对应的深感相机拍摄的标定物的深度图像上,结合相机内参数,匹配彩色图、/>的蓝色区域对应深度图像上的点云信息,生成初始旋转矩阵与初始平移矩阵;
S44、以一侧深感相机的世界坐标系作为主坐标,通过对初始旋转矩阵以及初始平移矩阵关系矩阵数值进行迭代计算和调整,实现两侧深感相机点云完全重合,记录调整后的旋转矩阵R与平移矩阵T,R与T的关系如公式1所示:
公式1。
4.根据权利要求3所述的牲畜体尺测量方法,其特征在于,迭代计算和调整初始旋转矩阵以及初始平移矩阵的方法如下:
将彩色图、/>的蓝色区域对应深度图像上的点云信息记作待配准点云P和待配准点云Q,在待配准点云P中任意选择一点,记为/>,从待配准点云Q中查找一个距离/>欧氏距离最短的点,记为/>,/>和/>为对应点,采用公式2进行多次迭代和调整,实现待配准点云P和待配准点云Q重合,
公式2
最终获得调整后的旋转矩阵R与平移矩阵T。
5.根据权利要求1所述的牲畜体尺测量方法,其特征在于,步骤S5中,采用DeepLabCut算法识别所述关键点的过程为:
S51、提取需标记的多帧彩色图像,置于DeepLabCut项目管理器中;
S52、使用标记工具在步骤S51提取的彩色图像上进行人工标注牲畜体尺关键点,生成训练数据集;
S53、对步骤S52生成的训练数据集进行网络模型训练,进而确关键点在彩色图像中的二维坐标。
6.根据权利要求5所述的牲畜体尺测量方法,其特征在于,步骤S5中牲畜体尺关键点至少包括:
在左侧深感相机获取的彩色图像上进行人工标注的耆甲点、坐骨结节点、肩部左侧最宽点、臀部左侧最宽点、髋骨中心点、耆甲点地面映射点和髋骨中心点地面映射点;
在右侧深感相机获取的彩色图像上进行人工标注的耆甲点、坐骨结节点、肩部右侧最宽点、臀部右侧最宽点、髋骨中心点、耆甲点地面映射点和髋骨中心点地面映射点。
7.根据权利要求6所述的牲畜体尺测量方法,其特征在于,步骤S7中的牲畜体尺包括体长、体宽、臀宽、体高和臀高5项体尺参数中的至少一种,其中:
所述耆甲点到所述髋骨中心点的距离与所述髋骨中心点到所述坐骨结节点的距离之和为所述体长;
所述肩部左侧最宽点到所述肩部右侧最宽点的距离为所述体宽;
所述臀部左侧最宽点到所述臀部右侧最宽点的距离为所述臀宽;
所述耆甲点到地面的垂直距离为所述体高;
所述髋骨中心点到地面的垂直距离为所述臀高。
8.根据权利要求1所述的牲畜体尺测量方法,其特征在于,步骤S6中,将步骤S5确定的关键点的二维坐标映射到步骤S4构建的牲畜三维模型中之前要先进行偏移点坐标优化,具体操作方法为:
S61、采用两侧的所述深感相机对牲畜进行数据采集,获得牲畜的深度图像;
S62、人工识别步骤S5确定的关键点的二维坐标,确定哪些关键点为偏移点;
S63、以步骤S61确定的偏移点在步骤S61获得的深度图像中的像素坐标为中心,向外扩张一个矩形像素区域,计算矩形像素区域的深度数据集合,用集合内的非零最小值替换偏移点的深度值,优化偏移点坐标。
9.根据权利要求8所述的牲畜体尺测量方法,其特征在于,所述矩形像素区域为像素的矩形区域,其中,d为大于0的自然数,从d=1像素开始计算,不断改变d,并以偏移点的深度值作为比对,直到扩张后的矩形区域内的深度值包含偏移点的深度值,然后停止扩张,计算矩形像素区域的深度数据集合。
10.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至9任一项所述牲畜体尺测量方法。
11.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述牲畜体尺测量方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311008934.5A CN116763295B (zh) | 2023-08-11 | 2023-08-11 | 牲畜体尺测量方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311008934.5A CN116763295B (zh) | 2023-08-11 | 2023-08-11 | 牲畜体尺测量方法、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116763295A CN116763295A (zh) | 2023-09-19 |
CN116763295B true CN116763295B (zh) | 2024-02-06 |
Family
ID=88008383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311008934.5A Active CN116763295B (zh) | 2023-08-11 | 2023-08-11 | 牲畜体尺测量方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116763295B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117011804B (zh) * | 2023-09-28 | 2023-12-26 | 厦门农芯数字科技有限公司 | 高精度猪场栋舍盘估方法、系统、设备及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102062609B1 (ko) * | 2019-07-29 | 2020-01-06 | 전북대학교 산학협력단 | 3d 영상을 이용한 휴대형 가축 무게 측정시스템 |
CN110986788A (zh) * | 2019-11-15 | 2020-04-10 | 华南农业大学 | 一种基于三维点云牲畜表型体尺数据的自动测量方法 |
CN111414798A (zh) * | 2019-02-03 | 2020-07-14 | 沈阳工业大学 | 基于rgb-d图像的头部姿态检测方法及系统 |
CN111612850A (zh) * | 2020-05-13 | 2020-09-01 | 河北工业大学 | 一种基于点云的猪只体尺参数测量方法 |
KR102206108B1 (ko) * | 2019-09-20 | 2021-01-21 | 광운대학교 산학협력단 | 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법 |
CN112894832A (zh) * | 2019-11-19 | 2021-06-04 | 广东博智林机器人有限公司 | 三维建模方法、装置、电子设备和存储介质 |
CN113298840A (zh) * | 2021-05-26 | 2021-08-24 | 南京邮电大学 | 基于带电作业场景下的多模态物体检测方法、系统、装置及存储介质 |
CN113947734A (zh) * | 2021-09-03 | 2022-01-18 | 北京市农林科学院智能装备技术研究中心 | 一种猪只体征信息采集方法及系统 |
CN115719377A (zh) * | 2022-11-24 | 2023-02-28 | 河北工业大学 | 一种六自由度位姿估计数据集自动采集系统 |
CN115830663A (zh) * | 2022-05-27 | 2023-03-21 | 深圳市安华光电技术股份有限公司 | 人脸三维关键点提取方法及装置、模型创建方法及系统 |
CN115886792A (zh) * | 2022-11-23 | 2023-04-04 | 内蒙古好快科技有限公司 | 一种牲畜智能体尺测定方法、系统及装置 |
CN116071417A (zh) * | 2023-01-31 | 2023-05-05 | 河北农业大学 | 一种基于Azure Kinect的羊只体尺体重获取系统及方法 |
WO2023081398A1 (en) * | 2021-11-05 | 2023-05-11 | Bired Imaging, Inc. | Spatial and characteristic property data to detect a source in a system |
CN116182736A (zh) * | 2023-02-06 | 2023-05-30 | 重庆腾达牧业股份有限公司 | 基于双视角深度相机的羊只三维体尺参数自动检测装置及检测方法 |
CN116452644A (zh) * | 2023-04-21 | 2023-07-18 | 北京石油化工学院 | 基于特征描述子的三维点云配准方法、装置及存储介质 |
-
2023
- 2023-08-11 CN CN202311008934.5A patent/CN116763295B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414798A (zh) * | 2019-02-03 | 2020-07-14 | 沈阳工业大学 | 基于rgb-d图像的头部姿态检测方法及系统 |
KR102062609B1 (ko) * | 2019-07-29 | 2020-01-06 | 전북대학교 산학협력단 | 3d 영상을 이용한 휴대형 가축 무게 측정시스템 |
KR102206108B1 (ko) * | 2019-09-20 | 2021-01-21 | 광운대학교 산학협력단 | 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법 |
CN110986788A (zh) * | 2019-11-15 | 2020-04-10 | 华南农业大学 | 一种基于三维点云牲畜表型体尺数据的自动测量方法 |
CN112894832A (zh) * | 2019-11-19 | 2021-06-04 | 广东博智林机器人有限公司 | 三维建模方法、装置、电子设备和存储介质 |
CN111612850A (zh) * | 2020-05-13 | 2020-09-01 | 河北工业大学 | 一种基于点云的猪只体尺参数测量方法 |
CN113298840A (zh) * | 2021-05-26 | 2021-08-24 | 南京邮电大学 | 基于带电作业场景下的多模态物体检测方法、系统、装置及存储介质 |
CN113947734A (zh) * | 2021-09-03 | 2022-01-18 | 北京市农林科学院智能装备技术研究中心 | 一种猪只体征信息采集方法及系统 |
WO2023081398A1 (en) * | 2021-11-05 | 2023-05-11 | Bired Imaging, Inc. | Spatial and characteristic property data to detect a source in a system |
CN115830663A (zh) * | 2022-05-27 | 2023-03-21 | 深圳市安华光电技术股份有限公司 | 人脸三维关键点提取方法及装置、模型创建方法及系统 |
CN115886792A (zh) * | 2022-11-23 | 2023-04-04 | 内蒙古好快科技有限公司 | 一种牲畜智能体尺测定方法、系统及装置 |
CN115719377A (zh) * | 2022-11-24 | 2023-02-28 | 河北工业大学 | 一种六自由度位姿估计数据集自动采集系统 |
CN116071417A (zh) * | 2023-01-31 | 2023-05-05 | 河北农业大学 | 一种基于Azure Kinect的羊只体尺体重获取系统及方法 |
CN116182736A (zh) * | 2023-02-06 | 2023-05-30 | 重庆腾达牧业股份有限公司 | 基于双视角深度相机的羊只三维体尺参数自动检测装置及检测方法 |
CN116452644A (zh) * | 2023-04-21 | 2023-07-18 | 北京石油化工学院 | 基于特征描述子的三维点云配准方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
基于DeepLabCut算法的猪只体尺快速测量方法研究;赵宇亮等;农业机械学报;第54卷(第2期);第249-257页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116763295A (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN110443836B (zh) | 一种基于平面特征的点云数据自动配准方法及装置 | |
CN112381861B (zh) | 一种基于地基激光雷达的林地点云数据配准和分割方法 | |
CN109410256B (zh) | 基于互信息的点云与影像自动高精度配准方法 | |
Bucksch et al. | SkelTre: Robust skeleton extraction from imperfect point clouds | |
CN111898688B (zh) | 一种基于三维深度学习的机载LiDAR数据树种分类方法 | |
Wang | A multi-scale approach for delineating individual tree crowns with very high resolution imagery | |
CN103679714A (zh) | 一种基于梯度互相关的光学和sar图像自动配准方法 | |
CN116763295B (zh) | 牲畜体尺测量方法、电子设备及存储介质 | |
CN108154104A (zh) | 一种基于深度图像超像素联合特征的人体姿态估计方法 | |
CN113223173B (zh) | 基于图模型的三维模型重建迁移方法及系统 | |
CN107729926A (zh) | 一种基于高维空间变换的数据扩增方法、机器识别系统 | |
CN105389821B (zh) | 一种基于云模型和图割相结合的医学图像分割方法 | |
CN112613097A (zh) | 一种基于计算机视觉的bim快速化建模方法 | |
WO2020168648A1 (zh) | 一种图像分割方法、装置及计算机可读存储介质 | |
CN111640116B (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN107316328A (zh) | 一种基于二维激光扫描仪角点特征的闭环检测方法 | |
CN116503705B (zh) | 一种数字城市多源数据的融合方法 | |
CN114387288A (zh) | 基于车载激光雷达点云数据的单立木三维信息提取方法 | |
CN107610219A (zh) | 一种三维场景重构中几何线索感知的像素级点云稠密化方法 | |
CN103700135B (zh) | 一种三维模型局部球面调和特征提取方法 | |
CN111274944A (zh) | 一种基于单张图像的三维人脸重建方法 | |
CN112906719A (zh) | 基于消费级深度相机的立木因子测量方法 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN114136208A (zh) | 一种无损估算立木材积的低成本树木结构自动重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |