CN113554691A - 一种植株高度测量方法 - Google Patents

一种植株高度测量方法 Download PDF

Info

Publication number
CN113554691A
CN113554691A CN202110832121.2A CN202110832121A CN113554691A CN 113554691 A CN113554691 A CN 113554691A CN 202110832121 A CN202110832121 A CN 202110832121A CN 113554691 A CN113554691 A CN 113554691A
Authority
CN
China
Prior art keywords
depth
camera
rgb
color
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110832121.2A
Other languages
English (en)
Other versions
CN113554691B (zh
Inventor
程曼
刘亚东
袁洪波
周猛祥
范才虎
王起帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Agricultural University
Original Assignee
Hebei Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei Agricultural University filed Critical Hebei Agricultural University
Priority to CN202110832121.2A priority Critical patent/CN113554691B/zh
Publication of CN113554691A publication Critical patent/CN113554691A/zh
Application granted granted Critical
Publication of CN113554691B publication Critical patent/CN113554691B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Abstract

本发明公开了一种植株高度测量方法,步骤如下:S1、对彩色相机和深度相机进行内部参数标定;S2、根据相机获取RGB图像和深度数据,得到彩色三维点云;S3、提取特定范围内的点云数据,减少背景对于数据分析的负面影响;S4、对点云数据进行滤波,找到感兴趣区域(ROI);S5、计算株高。本发明采用上述的一种植株高度测量方法,便于对植物株高进行快速测量,工作效率高。

Description

一种植株高度测量方法
技术领域
本发明涉及农作物种植和农作物育种领域,特别是植物株高的测量方面,尤其是涉及一种植株高度测量方法。
背景技术
株高能够反映农作物的长势及营养状况,是作物育种研究和栽培管理的重要参考指标。通过对株高的测量,可以为育种人员培育优良品种提供参考数据,从而加速育种进程。此外,农业生产人员可以根据株高实时掌握农作物的生长状况,并据此制定合理的营养及管理方案,保证作物健康生长。
目前,对于植株高度的测量主要采用两种方法:人工测量法和自动测量法。人工测量法,是指直接通过人工或在辅助夹紧装置的协助下对株高进行测量,测量工具大多数采用卷尺和刻度尺,这种方法费时费力,而且需要人工手动记录数据,数据精确度低且后期数据处理过程繁琐。
自动测量法,一般利用激光扫描技术和立体视觉技术对株高进行测量。立体视觉技术通常利用相机在不同视点上对目标进行拍摄,然后两幅或多福图像提高的信息重构目标的三维结构,在此基础上进行高度的计算;激光扫描可以通过激光雷达等设备对目标进行扫描,然后利用TOF(飞行时间)原理计算雷达到目标物体的距离,再结合激光雷达到地面的距离,计算出目标的高度。采用立体视觉计算进行三维重建和高度测量时,往往易受到光照等环境因素的影响,导致测量精度变低;采用常规激光扫描对植株进行三维建模,虽然能较好地克服光照等的影响,但是处理数据时需要大量的人工交互与数据冗余,且常见的激光扫描设备价格较高。
综上所述,一种用于室内育种研究的非接触式、方便快速又造价低廉的植株高度测量系统和方法非常必要。
发明内容
本发明的目的是提供一种植株高度测量方法,便于对植物株高进行快速测量,工作效率高。
为实现上述目的,本发明提供了一种植株高度测量方法,步骤如下:
S1、对彩色相机和深度相机进行内部参数标定;
S2、根据相机获取RGB图像和深度数据,得到彩色三维点云;
S3、提取特定范围内的点云数据,减少背景对于数据分析的负面影响;
S4、对点云数据进行滤波,找到感兴趣区域(ROI);
S5、计算株高。
优选的,步骤S1中,标定彩色相机的内部参数矩阵H_rgb、深度相机的内部参数矩阵H_ir、旋转矩阵R和平移向量T,方法如下:
(1)固定好KinectV2相机和棋盘格标定板位置,利用KinectV2相机红外摄像头采集红外信息、彩色摄像头获取彩色信息,标定图片需要使用标定板在不同位置、不同角度、不同姿态下拍摄图像;
(2)利用Camera Calibration软件包在matlab软件中对红外图像和彩色图像进行标定处理;
(3)分别将红外图像和彩色图像导入matlab中,Camera Calibration可以得出每幅图像的标定误差和图像的平均标定误差,平均标定误差需要控制在0.15以下,如果平均标定误差大于0.15,则从标定误差最大的图像开始,按照标定误差的降序依次将图像删除,直到平均标定误差小于0.15;
(4)当平均标定误差小于0.15时,Camera Calibration得到的RGB相机内部参数矩阵H_rgb、深度相机的内部参数矩阵H_ir、旋转矩阵R和平移向量T即为有效参数。
优选的,步骤S2中,彩色三维点云获得的具体方法如下:
(1)利用深度相机的内参作为约束条件,将深度相机获取的深度数据转换为世界坐标系中的三维点云,坐标变换公式如下:
Figure BDA0003175918190000031
公式(1)中[H_ir]-1是深度相机内参矩阵H_ir的逆矩阵;p_ir代表Kinect v2获取的深度图像中的某个像素的深度信息,其中,D为深度数值,x'、y'分别是该深度值在深度图像中的行和列位置;P_ir是将原始深度像素转换到世界坐标系中的转换深度像素,其中,x_ir、y_ir、z_ir分别表示转换后深度值在世界坐标系中的三维空间位置;
(2)将世界坐标系中的深度三维点云数据转换到彩色相机坐标系中,变换公式如下:
P-rgb=R*P-ir+T (2)
公式(2)中R是旋转矩阵、T是平移向量、P_ir是世界坐标系中的某个深度像素的信息;P_rgb是转换到彩色相机坐标系中的深度像素信息,x_rgb、y_rgb、z_rgb是彩色相机坐标系下的该深度值的三维空间位置;
(3)求解彩色图像中的像素点的颜色值,并与深度图像中的深度值进行匹配,得到彩色三维点云,变换公式如下:
p_rgb=(x″,y″,C)
p_rgb=H_rgb*P_rgb (3)
公式(3)中P_rgb是上一步中得到彩色相机坐标系中深度像素信息,H_rgb是彩色相机内部参数矩阵,p_rgb是Kinect v2获取的彩色图像中某个像素的信息,其中,x”、y”分别是该像素在彩色图像中的行和列位置,C代表颜色值;
(4)对深度相机获取的每一个深度值都按照上述步骤进行处理,最终得到整个植株的彩色三维点云。
优选的,步骤S4中,点云数据滤波的方法为:根据RGB图像的特点,将其分为R、G、B三个通道的数据,取每一个点云在R通道的数值r、G通道的数值g、B通道的数值的数值b;
Srgb=r+g+b (4)
ABSrg=|r-g| (5)
ABSbg=|b-g| (6)
ABSrb=|r-b| (7)
Figure BDA0003175918190000041
Figure BDA0003175918190000042
Figure BDA0003175918190000043
对于绿色植株0.098<Rrg<0.697、0.032<Rbg<0.670、g>r、g>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果;
对于红色植株,0.096<Rrg<0.775、0.080<Rrb<0.813、r>g、r>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果;
对于黄色植株,0.038<Rrg<0.239、0.122<Rbg<0.457、r>g、g>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果。
优选的,步骤S5中,在ROI区域中,随机指定两个点云,分别以这两个点云为球心,以k毫米为半径,在球体内进行搜索,将当前搜索到的在Y轴方向上最大值和最小值的坐标Ymax和Ymin进行存储;
然后分别以Ymax和Ymin为球心,再次进行搜索,直到在该圆球内找到新的最大值和最小值,并用其值分别替换原有的Ymax和Ymin;按照这种方法进行迭代,直到遍历完ROI区域内三维点云中所有点;
最后得到的Ymax和Ymin,即为临界关键点,根据公式(11)可以计算出植株高度H;
H=Ymax-Ymin (11)。
因此,本发明采用上述一种植株高度测量方法,用于室内育种环境的非接触式植株高度测量,与现有其它方法相比,本发明提出的方法可以通过非接触手段对植物株高进行测量,造价更低,对环境要求比较低,省时省力,不会对植物造成任何干扰和影响,而且快速精确,可以做到在线实时检测。
本发明利用深度相机对植株进行株高测量,特别是利用颜色滤波去除背景信息来提取植株点云的方法、寻找植株最高点和最低点的方法、以及非接触式测量株高的测量方法,这同时也是本发明欲保护的点。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1是本发明一种植株高度测量方法实施例的流程图;
图2是本发明一种植株高度测量方法实施例的操作示意图;
图3是matlab中平均误差图;
图4是matlab中相机内参矩阵示意图;
图5是植株的彩色三维点图;
图6是植株的指定范围内点云;
图7是植株颜色滤波之后的点云数据;
图8是植株的计算机测量结果;
图9是植株的人工测量结果。
具体实施方式
以下通过附图和实施例对本发明的技术方案作进一步说明。
实施例一
如图1-2所示,非接触式植物的高度测量工作主要由Kinect V2相机完成对数据的采集,由计算机完成对数据的处理和计算,从而得出植株高度。具体工作流程如下:
1.首先进行系统参数标定,通过标定获得彩色相机的内部参数矩阵H_rgb、深度相机的内部参数矩阵H_ir、旋转矩阵R和平移向量T。具体标定方法如下:
(1)固定好KinectV2相机和棋盘格标定板位置,利用KinectV2相机红外摄像头采集红外信息、彩色摄像头获取彩色信息,标定图片需要使用标定板在不同位置、不同角度、不同姿态下拍摄,各拍摄20幅图像。
(2)利用Camera Calibration软件包在matlab软件中对红外图像和彩色图像进行标定处理。
(3)分别将20幅红外图像和彩色图像导入matlab中,Camera Calibration可以得出每幅图像的标定误差和20幅图像的平均标定误差,如图3。平均标定误差需要控制在0.15以下,如果平均标定误差大于0.15,则从标定误差最大的图像开始,按照标定误差的降序依次将图像删除,直到平均标定误差小于0.15。
(4)当平均标定误差小于0.15时,Camera Calibration得到的RGB相机内部参数矩阵H_rgb、深度相机的内部参数矩阵H_ir、旋转矩阵R和平移向量T即为有效参数,如图4。
2.根据KinectV2获取的RGB图像和深度数据,得到彩色三维点云,如图5,具体方法如下:
(1)利用深度相机的内参作为约束条件,将深度相机获取的深度数据转换为世界坐标系中的三维点云,坐标变换公式如下:
Figure BDA0003175918190000071
公式(1)中[H_ir]-1是深度相机内参矩阵H_ir的逆矩阵;p_ir代表Kinect v2获取的深度图像中的某个像素的深度信息,其中,D为深度数值,x'、y'分别是该深度值在深度图像中的行和列位置;P_ir是将原始深度像素转换到世界坐标系中的转换深度像素,其中,x_ir、y_ir、z_ir分别表示转换后深度值在世界坐标系中的三维空间位置。
(2)将世界坐标系中的深度三维点云数据转换到彩色相机坐标系中,变换公式如下:
P-rgb=R*P-ir+T (2)
公式(2)中R是旋转矩阵、T是平移向量、P_ir是世界坐标系中的某个深度像素的信息;P_rgb是转换到彩色相机坐标系中的深度像素信息,x_rgb、y_rgb、z_rgb是彩色相机坐标系下的该深度值的三维空间位置。
(3)求解彩色图像中的像素点的颜色值,并与深度图像中的深度值进行匹配,得到彩色三维点云,变换公式如下:
p_rgb=(x″,y″,C)
p_rgb=H_rgb*P_rgb (3)
公式(3)中P_rgb是上一步中得到彩色相机坐标系中深度像素信息,H_rgb是彩色相机内部参数矩阵,p_rgb是Kinect v2获取的彩色图像中某个像素的信息,其中,x”、y”分别是该像素在彩色图像中的行和列位置,C代表颜色值。
(4)对深度相机获取的每一个深度值都按照上述步骤进行处理,最终得到整个植株的彩色三维点云。
3.点云数据提取
如图6,在世界坐标系中,将与相机平行方向的坐标轴定义为X轴,植株生长方向的坐标轴定义为Y轴,相机到植株方向的坐标轴定义为Z轴。
为了后期数据处理方便,加快运算速度,限定Kinect V2到植株的距离为1.5m,且只提取Z轴方向1m-2m范围内的彩色三维点云,这样,既能够保证Kinect获取信息的准确性,又能够减少大量存在的背景对于数据分析的负面影响。
4.点云数据滤波
采集信息时,会引入背景信息,在此利用颜色滤波算法对转换完成的点云数据进行处理,除去背景信息,提取植株点云。如图7,具体方法为:根据RGB图像的特点,可以将其分为R、G、B三个通道的数据。取每一个点云在R通道的数值r、G通道的数值g、B通道的数值的数值b,并将r、g、b相加,得到的结果定义为Srgb,如公式(4)所示;将r与g相减并且取绝对值,并将得到的结果定义为ABSrg,如公式(5)所示;将b与g相减并且取绝对值,并将得到的结果定义为ABSbg,如公式(6)所示;将r与b相减并且取绝对值,并将得到的结果定义为ABSrb,如公式(7)所示。
将ABSrg与Srgb的比值定义为Rrg,如公式(8)所示;将ABSbg与Srgb的比值定义为Rbg,如公式(9)所示。将ABSrb与Srgb的比值定义为Rrb,如公式(10)所示。
Srgb=r+g+b (4)
ABSrg=|r-g| (5)
ABSbg=|b-g| (6)
ABSrb=|r-b| (7)
Figure BDA0003175918190000091
Figure BDA0003175918190000092
Figure BDA0003175918190000093
(补充说明:查阅RGB色值表可知,一般来说,对于绿色,165<Srgb<642、35<ABSrg<255、16<ABSbg<255、0.098<Rrg<0.697、0.032<Rbg<0.670;对于红色,230<Srgb<650、54<ABSrg<255、48<ABSrb<255、0.096<Rrg<0.775、0.080<Rrb<0.813;对于黄色,426<Srgb<614、20<ABSrg<102、57<ABSbg<215、0.038<Rrg<0.239、0.122<Rbg<0.457。)
对于绿色植株0.098<Rrg<0.697、0.032<Rbg<0.670、g>r、g>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果。
对于红色植株,0.096<Rrg<0.775、0.080<Rrb<0.813、r>g、r>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果。
对于黄色植株,0.038<Rrg<0.239、0.122<Rbg<0.457、r>g、g>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果。
5.经过颜色滤波之后,保留下的点的集合即为需要的感兴趣区域(ROI)。
6.植株关键点寻找方法。
在得到的ROI区域中,随机指定两个点云,分别以这两个点云为球心,以k毫米为半径(k的数值与植株叶片的宽度w有关,k=w+10。原因是:当圆心被设置在叶片最宽处的边缘位置时,可以保证另一侧边缘的点云也在被搜索的范围之内,以此来加快搜索速度),在球体内进行搜索,将当前搜索到的在Y轴方向上最大值和最小值的坐标Ymax和Ymin进行存储。
然后分别以Ymax和Ymin为球心,再次进行搜索,直到在该圆球内找到新的最大值和最小值,并用其值分别替换原有的Ymax和Ymin;按照这种方法进行迭代,直到遍历完ROI区域内三维点云中所有点。最后得到的Ymax和Ymin,即为临界关键点,根据公式(11)可以计算出植株高度H,如图8。
植株高度计算公式:
H=Ymax-Ymin (11)
根据图8-9可知,计算机测定植株高度为0.309858,而人工测定植株高度为0.300,本发明获得的植株高度更加精准,并且与人工测定的植株高度偏差不大,二者的数据一致性较高。
因此,本发明采用上述一种植株高度测量方法,便于对植物株高进行快速测量,工作效率高。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (5)

1.一种植株高度测量方法,其特征在于,步骤如下:
S1、对彩色相机和深度相机进行内部参数标定;
S2、根据相机获取RGB图像和深度数据,得到彩色三维点云;
S3、提取特定范围内的点云数据,减少背景对于数据分析的负面影响;
S4、对点云数据进行滤波,找到感兴趣区域(ROI);
S5、计算株高。
2.根据权利要求1所述的一种植株高度测量方法,其特征在于:步骤S1中,标定彩色相机的内部参数矩阵H_rgb、深度相机的内部参数矩阵H_ir、旋转矩阵R和平移向量T,方法如下
(1)固定好KinectV2相机和棋盘格标定板位置,利用KinectV2相机红外摄像头采集红外信息、彩色摄像头获取彩色信息,标定图片需要使用标定板在不同位置、不同角度、不同姿态下拍摄图像;
(2)利用Camera Calibration软件包在matlab软件中对红外图像和彩色图像进行标定处理;
(3)分别将红外图像和彩色图像导入matlab中,Camera Calibration可以得出每幅图像的标定误差和图像的平均标定误差,平均标定误差需要控制在0.15以下,如果平均标定误差大于0.15,则从标定误差最大的图像开始,按照标定误差的降序依次将图像删除,直到平均标定误差小于0.15;
(4)当平均标定误差小于0.15时,Camera Calibration得到的RGB相机内部参数矩阵H_rgb、深度相机的内部参数矩阵H_ir、旋转矩阵R和平移向量T即为有效参数。
3.根据权利要求1所述的一种植株高度测量方法,其特征在于:步骤S2中,彩色三维点云获得的具体方法如下:
(1)利用深度相机的内参作为约束条件,将深度相机获取的深度数据转换为世界坐标系中的三维点云,坐标变换公式如下:
Figure FDA0003175918180000021
公式(1)中[H_ir]-1是深度相机内参矩阵H_ir的逆矩阵;p_ir代表Kinect v2获取的深度图像中的某个像素的深度信息,其中,D为深度数值,x′、y′分别是该深度值在深度图像中的行和列位置;P_ir是将原始深度像素转换到世界坐标系中的转换深度像素,其中,x_ir、y_ir、z_ir分别表示转换后深度值在世界坐标系中的三维空间位置;
(2)将世界坐标系中的深度三维点云数据转换到彩色相机坐标系中,变换公式如下:
Figure FDA0003175918180000022
公式(2)中R是旋转矩阵、T是平移向量、P_ir是世界坐标系中的某个深度像素的信息;P_rgb是转换到彩色相机坐标系中的深度像素信息,x_rgb、y_rgb、z_rgb是彩色相机坐标系下的该深度值的三维空间位置;
(3)求解彩色图像中的像素点的颜色值,并与深度图像中的深度值进行匹配,得到彩色三维点云,变换公式如下:
p_rgb=(x″,y″,C′)
p_rgb=H_rgb*P_rgb (3)
公式(3)中P_rgb是上一步中得到彩色相机坐标系中深度像素信息,H_rgb是彩色相机内部参数矩阵,p_rgb是Kinect v2获取的彩色图像中某个像素的信息,其中,x″、y″分别是该像素在彩色图像中的行和列位置,C代表颜色值;
(4)对深度相机获取的每一个深度值都按照上述步骤进行处理,最终得到整个植株的彩色三维点云。
4.根据权利要求1所述的一种植株高度测量方法,其特征在于:步骤S4中,点云数据滤波的方法为:根据RGB图像的特点,将其分为R、G、B三个通道的数据,取每一个点云在R通道的数值r、G通道的数值g、B通道的数值的数值b;
Srgb=r+g+b (4)
ABSrg=|r-g| (5)
ABSbg=|b-g| (6)
ABSrb=|r-b| (7)
Figure FDA0003175918180000031
Figure FDA0003175918180000032
Figure FDA0003175918180000033
对于绿色植株0.098<Rrg<0.697、0.032<Rbg<0.670、g>r、g>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果;
对于红色植株,0.096<Rrg<0.775、0.080<Rrb<0.813、r>g、r>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果;
对于黄色植株,0.038<Rrg<0.239、0.122<Rbg<0.457、r>g、g>b的点,判定为植株的点云并进行保留,反之,则作为背景信息被去除,并将保留下的点的集合作为颜色滤波后的结果。
5.根据权利要求1所述的一种植株高度测量方法,其特征在于:步骤S5中,在ROI区域中,随机指定两个点云,分别以这两个点云为球心,以k毫米为半径,在球体内进行搜索,将当前搜索到的在Y轴方向上最大值和最小值的坐标Ymax和Ymin进行存储;
然后分别以Ymax和Ymin为球心,再次进行搜索,直到在该圆球内找到新的最大值和最小值,并用其值分别替换原有的Ymax和Ymin;按照这种方法进行迭代,直到遍历完ROI区域内三维点云中所有点;
最后得到的Ymax和Ymin,即为临界关键点,根据公式(11)可以计算出植株高度H;
H=Ymax-Ymin (11)。
CN202110832121.2A 2021-07-22 2021-07-22 一种植株高度测量方法 Active CN113554691B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110832121.2A CN113554691B (zh) 2021-07-22 2021-07-22 一种植株高度测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110832121.2A CN113554691B (zh) 2021-07-22 2021-07-22 一种植株高度测量方法

Publications (2)

Publication Number Publication Date
CN113554691A true CN113554691A (zh) 2021-10-26
CN113554691B CN113554691B (zh) 2022-05-10

Family

ID=78132511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110832121.2A Active CN113554691B (zh) 2021-07-22 2021-07-22 一种植株高度测量方法

Country Status (1)

Country Link
CN (1) CN113554691B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071417A (zh) * 2023-01-31 2023-05-05 河北农业大学 一种基于Azure Kinect的羊只体尺体重获取系统及方法
CN117058218A (zh) * 2023-07-13 2023-11-14 湖南工商大学 基于图像-深度的盘式造球颗粒粉末填充率在线测量方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279987A (zh) * 2013-06-18 2013-09-04 厦门理工学院 基于Kinect的物体快速三维建模方法
US20160180195A1 (en) * 2013-09-06 2016-06-23 Toyota Jidosha Kabushiki Kaisha Augmenting Layer-Based Object Detection With Deep Convolutional Neural Networks
CN109816680A (zh) * 2018-12-19 2019-05-28 黑龙江八一农垦大学 一种农作物株高的高通量计算方法
CN110264567A (zh) * 2019-06-19 2019-09-20 南京邮电大学 一种基于标记点的实时三维建模方法
CN110853135A (zh) * 2019-10-31 2020-02-28 天津大学 基于养老机器人的室内场景实时重建跟踪服务方法
CN111667529A (zh) * 2020-05-25 2020-09-15 东华大学 一种植物点云叶片分割与表型特征测量方法
CN112465889A (zh) * 2021-01-04 2021-03-09 广东工业大学 一种基于二维-三维集成的植株点云分割方法、系统和存储介质
CN112927297A (zh) * 2021-02-20 2021-06-08 华南理工大学 一种基于yolo系列的目标检测和视觉定位方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279987A (zh) * 2013-06-18 2013-09-04 厦门理工学院 基于Kinect的物体快速三维建模方法
US20160180195A1 (en) * 2013-09-06 2016-06-23 Toyota Jidosha Kabushiki Kaisha Augmenting Layer-Based Object Detection With Deep Convolutional Neural Networks
CN109816680A (zh) * 2018-12-19 2019-05-28 黑龙江八一农垦大学 一种农作物株高的高通量计算方法
CN110264567A (zh) * 2019-06-19 2019-09-20 南京邮电大学 一种基于标记点的实时三维建模方法
CN110853135A (zh) * 2019-10-31 2020-02-28 天津大学 基于养老机器人的室内场景实时重建跟踪服务方法
CN111667529A (zh) * 2020-05-25 2020-09-15 东华大学 一种植物点云叶片分割与表型特征测量方法
CN112465889A (zh) * 2021-01-04 2021-03-09 广东工业大学 一种基于二维-三维集成的植株点云分割方法、系统和存储介质
CN112927297A (zh) * 2021-02-20 2021-06-08 华南理工大学 一种基于yolo系列的目标检测和视觉定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
冯佳睿等: "基于深度信息的大豆株高计算方法", 《光学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071417A (zh) * 2023-01-31 2023-05-05 河北农业大学 一种基于Azure Kinect的羊只体尺体重获取系统及方法
CN116071417B (zh) * 2023-01-31 2024-01-12 河北农业大学 一种基于Azure Kinect的羊只体尺体重获取系统及方法
CN117058218A (zh) * 2023-07-13 2023-11-14 湖南工商大学 基于图像-深度的盘式造球颗粒粉末填充率在线测量方法

Also Published As

Publication number Publication date
CN113554691B (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
Guo et al. Crop 3D—a LiDAR based platform for 3D high-throughput crop phenotyping
CN104482860B (zh) 鱼类形态参数自动测量装置和方法
CN113554691B (zh) 一种植株高度测量方法
Khanna et al. Beyond point clouds-3d mapping and field parameter measurements using uavs
Nielsen et al. Vision-based 3D peach tree reconstruction for automated blossom thinning
CN109816680B (zh) 一种农作物株高的高通量计算方法
CN113538666B (zh) 一种植物植株三维模型快速重建方法
CN110782467B (zh) 基于深度学习和图像处理的马体尺测量方法
WO2021208407A1 (zh) 目标物检测方法、装置和图像采集方法、装置
Karkee et al. A method for three-dimensional reconstruction of apple trees for automated pruning
CN110070571B (zh) 一种基于深度相机的毛竹形态参数检测方法
CN112147078B (zh) 一种农作物表型信息多源遥感监测方法
CN109816779A (zh) 一种使用智能手机重建人工林森林模型获取单木参数的方法
CN110610438B (zh) 一种农作物冠层叶柄夹角计算方法及系统
CN111179335A (zh) 一种基于双目视觉的立木测定方法
CN112529948A (zh) 一种基于Mask R-CNN与3维球体拟合的成熟石榴定位方法
CN106339717A (zh) 一种基于混合多尺度特征模型的活立木快速识别方法
CN106683092B (zh) 测算蓝莓树冠郁闭度的装置和方法
Jin et al. Edge recognition and reduced transplantation loss of leafy vegetable seedlings with Intel RealsSense D415 depth camera
Wang et al. Automatic estimation of trunk cross sectional area using deep learning
CN112906719A (zh) 基于消费级深度相机的立木因子测量方法
CN116883480A (zh) 基于双目影像与地基雷达融合点云的玉米株高检测方法
CN112686859A (zh) 基于热红外和rgb-d相机的作物cwsi的检测方法
Chen et al. An automatic plant growth measurement system for plant factory
Zhu et al. Research on cotton row detection algorithm based on binocular vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant