CN105844632A - 基于机器视觉的稻株识别与定位方法 - Google Patents

基于机器视觉的稻株识别与定位方法 Download PDF

Info

Publication number
CN105844632A
CN105844632A CN201610160545.8A CN201610160545A CN105844632A CN 105844632 A CN105844632 A CN 105844632A CN 201610160545 A CN201610160545 A CN 201610160545A CN 105844632 A CN105844632 A CN 105844632A
Authority
CN
China
Prior art keywords
rice strain
image
connected region
rice
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610160545.8A
Other languages
English (en)
Other versions
CN105844632B (zh
Inventor
蒋郁
崔宏伟
齐龙
马旭
郑文汉
赵柳霖
陈林涛
安沛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN201610160545.8A priority Critical patent/CN105844632B/zh
Publication of CN105844632A publication Critical patent/CN105844632A/zh
Application granted granted Critical
Publication of CN105844632B publication Critical patent/CN105844632B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于机器视觉的稻株识别与定位方法,所述方法包括:通过探究影响成像质量的相关因素,构建可提高自然光下稻株与背景灰度值差异的图像采集系统;通过图像采集系统采集多幅稻株图像;利用彩色图像灰度化、PointFilter工具、自动确定阈值处理稻株图像,将稻株图像分割成植物和背景两个部分;划定检苗区,在检苗区内测算提取整穴稻株所用连通区域数;采用固定连通区域数和异点比较、动态定位方法定位稻株中心;根据稻株多本穴栽、茎基部成束、冠层松散的生长特点,结合茎基部直径和稻株保护区来判定定位是否准确,最后进行实验验证。本发明方法能实现稻株的识别与定位,可为机械株间除草稻株的定位提供技术支持。

Description

基于机器视觉的稻株识别与定位方法
技术领域
本发明涉及一种稻株识别与定位方法,尤其是一种基于机器视觉的稻株识别与定位方法,属于稻株识别与定位技术领域。
背景技术
避开作物选择性地对株间杂草进行防除是机械除草的最大难点。机械化种植水稻虽理论上株距分布均匀,但实际生产中由于单位面积上的取秧量不同、漏插以及漂秧现象的存在,致使水稻株距分布不均匀,因此,要实现水稻株间机械除草,首先需要对稻株进行精确地识别和定位。
机器视觉技术是作物自动识别与定位的常用方法,然而识别与定位精度受图像背景的复杂度、作物与杂草形态的相似度、环境因素等影响很大,给田间智能机械除草装备的研究带来很大困难,Tillett等(Tillett N.D.,Hague T.,Grundy A.C.,Dedousis.A.P.Mechanical within-row weed control for transplanted crops usingcomputer vision[J].Biosystems Engineering,2008,99(22):171-178.)应用二维小波技术结合Kalman跟踪算法识别目标作物莴苣个体并获得其位置信息,形成决策后控制杂草部件完成株间除草作业。Astrand等(Astrand B.,Baerveldt A-J.An agricult-ural mobilerobot with vision-based perception for mechanical weed control[J].Auton-mousRobots,2002,13:21-35.)在实验室条件下,经特征选择后选取作物彩色图像的3个特征值,建立K近邻分类模型,识别目标物甜菜并获得其位置信息。张春龙等(张春龙,黄小龙,刘卫东,等.苗间锄草机器人信息获取方法的研究[J].农业工程学报,2013,28(9):142-146.)在实验室内以最小时耗和最大包容准确度为目标,利用图像行像素直方图的参数组合确定苗株中心沿机器人前进方向的一维坐标,定位误差为±5mm。胡炼等(胡炼,罗锡文,曾山,等.基于机器视觉的株间机械除草装置的作物识别与定位方法[J].农业工程学报,2013,29(10):12-18.)在超绿颜色空间,利用Ostu图像分割及形态学运算方法,识别棉苗和生菜苗,根据行列像素累加结合绿色植物连通域的质心获取作物的位置信息,但在高密度杂草环境中,采用机器视觉技术通过叶片部位的定位与根部实际位置仍存在误差。
以上所述研究均采用机器视觉技术结合图像处理算法对作物进行识别和定位,但由于其识别和定位的作物多为叶菜类作物,作物冠层形态学特征相对简单,且图像背景多为旱地,而对于水稻而言,水田背景环境复杂、水层反光、稻株冠部形态学特征较为复杂,采用机器视觉技术对稻株进行识别和定位存在着技术难题。
发明内容
本发明的目的是为了解决上述现有技术的缺陷,提供了一种基于机器视觉的稻株识别与定位方法,该方法能实现稻株的识别与定位,可为机械株间除草稻株的定位提供技术支持。
本发明的目的可以通过采取如下技术方案达到:
基于机器视觉的稻株识别与定位方法,所述方法包括:
通过探究影响成像质量的相关因素,构建可提高自然光下稻株与背景灰度值差异的图像采集系统;通过图像采集系统采集多幅稻株图像;利用彩色图像灰度化、PointFilter工具、自动确定阈值处理稻株图像,将稻株图像分割成植物和背景两个部分;划定检苗区,在检苗区内测算提取整穴稻株所用连通区域数;采用固定连通区域数和异点比较、动态定位方法定位稻株中心。
作为一种实施方案,所述图像采集系统包括镜头、智能CCD相机、计算机、遮光装置、实验槽以及移动平台,所述镜头安装在智能CCD相机上,所述智能CCD相机与计算机相连,所述智能CCD相机和遮光装置均安装在移动平台上,所述计算机中装有Insightexplorer软件,且放置在移动平台上,所述实验槽上种有多株稻株,且放置在移动平台的下方;
所述通过探究影响成像质量的相关因素,构建可提高自然光下稻株与背景灰度值差异的图像采集系统,具体如下:
分别选择无水无遮光、有水无遮光、无水遮光、有水遮光四种条件进行图像采集,对比四种条件下采集的稻株图像,实验槽无水时,遮光时采集的稻株图像中稻株与背景的灰度差异较大,易于后续的图像分割;实验槽有水时,无遮光时水面倒映移动平台、天空以及天空中的物体,导致采集的稻株图像背景中包含较多噪声,影响后续图像处理;通过探究这些影响成像质量的因素后,图像采集均在遮光条件下进行。
作为一种实施方案,所述通过图像采集系统采集多幅稻株图像,具体包括:
1)调整智能CCD相机位置,使稻株处于图像中部;
2)调整智能CCD相机的焦距与光圈,使图像成像清晰,调整好后固定;
3)将实验槽中水深调整至合适深度,如1.4cm~1.6cm,即1.5cm左右;
4)捕获并保存图像;
5)将实验槽中水全部排出,重复步骤4);
6)一批图像样本采集完成后,将待采集的稻株移栽至实验槽,移栽完成后将实验槽静置后重复步骤采集图像。
作为一种实施方案,所述利用彩色图像灰度化、PointFilter工具、自动阈值处理稻株图像,具体包括:
1)彩色图像灰度化
采用Insight explore软件工具包中的ColorToGreyscaleFilter工具完成彩色图像灰度化过程;
2)PointFilter工具
采用Insight explore软件工具包中的PointFilter工具处理图像,其基本原理为:使用clamp函数对图像灰度值进行处理,如下式:
F(x,y)=max{f(x,y),K} (1)
式中,f(x,y)为像素点的灰度值,K为灰度值范围,F(x,y)为处理后像素点的灰度值;
3)自动确定阈值
选取最大类间方差法自动确定阈值对图像进行二值化处理,利用最大类间方差法计算出最优阈值Th后,根据下式将图像分成植物和背景两个部分:
G ( x , y ) = 255 , g ( x , y ) &GreaterEqual; T h 0 , g ( x , y ) < T h - - - ( 2 )
式中,g(x,y)表示坐标点(x,y)的像素值,G(x,y)=0为背景,G(x,y)=255为稻株、杂草、噪声。
作为一种实施方案,所述划定检苗区是指在图像中心划定检苗区,图像中稻株冠部宽度在图像中占据合适宽度,一般使稻株冠部宽度约占据图像宽度的3/4,半径为180pixels,据此可以设定检苗区半径为200pixels~220pixels,最优为210pixel。
作为一种实施方案,所述在检苗区内测算提取整穴稻株所用连通区域数,具体为:
使用ExtractBlobs工具识别检苗区内代表稻株的连通区域,假设提取整穴稻株所用连通区域数为n;使用ExtractBlobs工具对图像进行稻株提取,同时过滤像素数较小的连通区域;当n为G时,多幅图像中的稻株均被提取出,当n大于G时,多幅稻株图像的提取结果中包含更多噪声,即提取整穴稻株所用连通区域数n的最大值为G;其中,G在实际操作中为固定数值。
作为一种实施方案,所述采用固定连通区域数和异点比较、动态定位方法定位稻株中心,具体包括:
1)固定连通区域数的定位
使用ExtractBlobs工具提取多幅稻株图像中检苗区内的连通区域,按像素面积大小降序排列,自动提取出连通区域的特征量几何信息,包括其几何中心坐标,即连通区域中心坐标,基于blob算法计算连通区域中心坐标(x0,y0),其原理为:连通区域R的(p,q)阶距为:
M p q = &Sigma; x &Element; R &Sigma; y &Element; R x p y q f ( x , y ) - - - ( 3 )
式中,点(x,y)位于连通区域内或边界上,即连通区域的矩M00为连通区域的像素点数,X方向和Y方向的一阶矩分别为:
M 10 = &Sigma; x &Sigma; y x f ( x , y ) - - - ( 4 )
M 01 = &Sigma; x &Sigma; y y f ( x , y ) - - - ( 5 )
则中心坐标为:
x 0 = M 10 ( R ( x , y ) ) / M 00 ( R ( x , y ) ) y 0 = ( M 01 ) ( R ( x , y ) ) / M 00 ( R ( x , y ) ) - - - ( 6 )
式中,R(x,y)为连通区域,f(x,y)为坐标点的像素值;根据所排列连通区域的顺序,选取j个连通区域用于稻株中心计算;当选取用于稻株中心计算的连通区域数小于或等于提取整穴稻株所用连通区域数,即0<j≤n≤G时,计算公式如下:
X i j = x 1 + x 2 + ... + x j j j = 1 ... n Y j = y 1 + y 2 + ... + y j j j = 1 ... n - - - ( 7 )
式中,(Xij,Yij)为第i张图像中使用j个连通区域的中心坐标定位的中心,(xj,yj)为连通区域的中心坐标;当选取用于稻株中心计算的连通区域数大于提取整穴稻株所用的连通区域数,即n<j≤G时,Xij=Xin,Yij=Yin;j取值为1~G,每幅图像得到G个稻株中心坐标;
2)异点比较、动态定位方法定位稻株中心
由固定连通区域数定位的中心与标定中心之间存在偏差,将此偏差定义为坐标偏移值,计算公式如:
L i j = ( X i j - X i 0 ) 2 + ( Y i j - Y i 0 ) 2 - - - ( 8 )
式中,(Xij,Yij)为第i幅图像中稻株的定位坐标,(Xi0,Yi0)为第i幅图像中稻株的标定坐标,Lij第i幅图像中的坐标偏移值;每个定位中心对应一个坐标偏移值,则每幅图像均有G个坐标偏移值;
将固定连通区域数定位的G个中心依次作为基准中心,计算与其余G-1个中心之间偏移值的平均值,则一幅图像共得到G个平均值,其中的最小值对应的中心坐标为该方法定位的稻株中心。
作为一种实施方案,所述方法还包括:
根据稻株多本穴栽、茎基部成束、冠层松散的生长特点,结合茎基部直径和稻株保护区来判定定位是否准确,最后进行实验验证。
作为一种实施方案,所述根据稻株多本穴栽、茎基部成束、冠层松散的生长特点,结合茎基部直径和稻株保护区来判定定位是否准确,具体为:
使用直尺测量稻株样本的茎基部直径,定义稻株保护区以稻株标定中心为圆心,半径为稻株茎基部直径的2倍;若定位中心偏移出茎基部范围时,定位中心所对应的稻株保护区不包含整穴稻株,机具作业时伤苗;当定位中心偏移至茎基部范围边界时,定位中心所对应的稻株保护区与稻株茎基部范围相切,机具作业时不伤苗;综上所述,当稻株定位中心偏移值小于或等于稻株茎基部半径时,定位准确。
本发明相对于现有技术具有如下的有益效果:
1、本发明方法通过探究影响成像质量的因素,提出在遮光条件下进行图像采集的方法,提高了图像质量,解决了自然光下亮斑、倒影在图像背景中作为噪声影响稻株识别和定位结果的问题。
2、本发明方法通过彩色图像灰度化、PointFilter工具、自动确定阈值等方法处理图像,图像在彩色图像灰度化后,先经PointFilter工具处理,再进行自动确定阈值处理,可以有效减少噪声。
3、本发明方法划定检苗区,在检苗区内测算提取整穴稻株所用连通区域数,提出固定连通区域数定位方法,并在固定连通区域数定位方法的基础上,进一步提出异点比较、动态定位方法,使定位更准确。
4、本发明方法通过对稻株部分形态学特征(多本穴栽、茎基部成束,冠层松散)进行研究,提出了由稻株茎基部直径划定保护区,根据茎基部区域和保护区判定定位是否准确的方法,以判断定位是否准确。
5、本发明方法在通过实验槽试验的结果表明:50幅有水图像样本中,稻株中心定位精度为8mm,50幅无水样本图像中,稻株中心定位精度为9.1mm;通过田间试验的结果表明:50幅田间图像样本中,定位精度为8.6mm,定位准确率为90%,单幅图像的处理时间为8.5±1.5ms,即异点比较、动态定位方法可实现对稻株的识别和定位,基本满足株间除草对稻株定位和处理速度的要求的要求。
附图说明
图1为本发明实施例1的基于机器视觉的稻株识别与定位方法流程示意图。
图2为本发明实施例1的图像采集系统结构示意图。
图3a~图3d为本发明实施例1的不同环境条件下采集图像显示图。
图4a~图4d为本发明实施例1的PointFilter工具中不同K值处理结果图。
图5a为采用PointFilter工具的处理结果图。
图5b为未采用PointFilter工具的处理结果图。
图6a为本发明实施例1的中心标定RGB图。
图6b为本发明实施例1的中心标定结果图。
图7为本发明实施例1的检苗区划定结果图。
图8a为本发明实施例1的过少连通区域提取结果图。
图8b为本发明实施例1的过多连通区域提取结果图。
图9为本发明实施例1的茎基部直径与冠层直径分布图。
图10为本发明实施例1的茎基部与保护区示意图。
图11为本发明实施例1的定位结果局部图。
具体实施方式
实施例1:
如图1所示,本实施例的基于机器视觉的稻株识别与定位方法,包括以下步骤:
一、培育稻株
供试水稻品种为华航丝苗。
2015年8月23日,在华南农业大学工程学院温室(113.35°E、23.16°N)培育稻株,温室内相对湿度为60%~70%,昼夜平均温度分别为32℃、24℃;水稻种子经浸泡消毒24h,然后冲洗、催芽、进行盆栽播种试验,共播100盆,每盆播4~6粒;每盆肥水按照常规措施均一管理。
2015年9月20日,当稻株平均高度约为26cm,冠层平均直径约13cm时,移栽至实验槽-土槽。每次任选18盆,每盆为一穴,每行9穴,每列2穴,行距30cm,株距12~15cm。土槽放置地点的相对湿度为65%~75%,昼夜平均温度为30℃、23℃;土槽土壤为稻田土,模拟实际水田情况,有杂草分布。
二、采集稻株图像
实验稻株图像需使用稻株图像采集系统采集,如图2所示,所述图像采集系统包括镜头、智能CCD相机1、计算机2、遮光装置3、土槽4以及移动平台5,所述镜头安装在智能CCD相机1上,所述智能CCD相机1与计算机2相连,所述智能CCD相机1和遮光装置3均安装在移动平台5上,所述计算机2中装有Insight explorer软件,且放置在移动平台5上,所述土槽4上种有多株稻株6,且放置在移动平台5的下方。
本实施例采用如下方式探究图像采集环境条件:分别选择无水无遮光、有水无遮光、无水遮光、有水遮光四种条件进行图像采集,有水时平均水层厚度为1.5cm,遮光装置的布置如图2中的3所示,四种条件的采集结果分别如图3a~图3d所示;对比图3a和图3c,可见土槽无水时,遮光条件下图像中稻株与背景的像素值差异较高,易于后续的图像分割;土槽有水时,由于镜面(水面)反射,无遮光时水面倒映移动平台、天空以及天空中的物体(如云等),导致图3b背景中包含较多噪声,影响后续图像处理,而采用遮光的方式,如图3d所示,图像质量明显改善;因此,图像采集均在遮光条件下进行。
本实施例图像样本采集步骤为:1)调整智能CCD相机位置,使稻株处于图像中部;2)调整智能CCD相机的焦距与光圈,使图像成像清晰,调整好后固定;3)将土槽中水深调整至1.5cm左右;4)捕获并保存图像;5)将土槽中水全部排出,重复步骤4);6)一批图像样本采集完成后,将待采集的稻株移栽至土槽,移栽完成后将土槽静置15分钟重复步骤3)~5)。
共采集有水遮光和无水遮光图像样本各100幅,分别从中选取50幅图像样本用于方法分析,剩余图像样本用于定位精度测试。
三、图像分割
本实施例利用彩色图像灰度化、PointFilter工具、自动确定阈值处理稻株图像,具体包括:
1)彩色图像灰度化
采用Insight explore软件工具包中的ColorToGreyscaleFilter工具完成彩色图像灰度化过程,因稻株颜色为绿色,在该工具中的“转换”选项中选择“绿”,将彩色图像转化为绿色分量的灰度图像,有利于稻株与背景的分割;
2)PointFilter工具
采用Insight explore软件工具包中的PointFilter工具处理图像,其基本原理为:使用clamp函数对图像灰度值进行处理,如下式:
F(x,y)=max{f(x,y),K} (1)
式中,f(x,y)为像素点的灰度值,K为灰度值范围,F(x,y)为处理后像素点的灰度值;
使用PointFilter工具处理图像时,K值不同得到的稻株二值图像存在差异,如图4a~图4d所示,从图中可以看出,当选取较小K值(图4a)时,图像中存在较多噪声,当选取较大K值(图4d)时,图像中有效像素缺失较多,经对比发现当K=130时二值图像更清晰,噪点及缺失有效像素较少,故K值取为130。
3)自动确定阈值
图像采集时,光照强度、稻株高度、物距等因素的变化影响图像中的灰度值分布,因此无法固定阈值进行图像分割,本实施例选取最大类间方差法(Ostu法)自动确定阈值对图像进行二值化处理,最大类间方差法不需要人为设定其他参数,是一种自动选择阈值的方法;利用Ostu法计算出最优阈值Th后,根据下式将图像分成植物和背景两个部分:
G ( x , y ) = 255 , g ( x , y ) &GreaterEqual; T h 0 , g ( x , y ) < T h - - - ( 2 )
式中,g(x,y)表示坐标点(x,y)的像素值,G(x,y)=0为背景(黑色),G(x,y)=255为稻株、杂草、噪声(白色)。
图5a为RGB图灰度化后,由自动确定阈值处理的结果,图5b为RGB图灰度化后,先由PointFilter工具处理(K=130)处理,后由自动确定阈值处理的结果,对比可知,图5b的噪声少,因此图像经PointFilter工具处理,可有效减少噪声。
四、像素维度下稻株群中心的标定
像素维度下稻株群中心的标定是判断定位是否准确的关键,本实施例通过标定得到像素维度下稻株群中心的精确坐标;图像采集前,在稻株中心插入一根白色的标杆,如图6a所示,图像二值化后,通过ExtractBlobs工具提取该标杆的像素中心坐标作为稻株像素中心坐标,如图6b所示,图6b中1表示标定的中心,标定的中心坐标显示在图6b左上角。
五、划定检苗区
在图像中心划定检苗区,即在水田株间智能机械作业时,机构检测图像中稻株的区域;使稻株冠部宽度约占据图像宽度的3/4,半径为180pixels,据此设定检苗区半径为210pixels(为充分提取稻株所设半径值大于180pixels),如图7所示。
六、检苗区内测算提取整穴稻株所用连通区域数
在检苗区内提取整穴稻株所用的连通区域数,受稻株叶片不黏连、背景中杂草、亮斑等因素的影响;使用ExtractBlobs工具识别检苗区内代表稻株的连通区域,假设提取整穴稻株所用连通区域数为n,当n值选取太小时,稻株提取不完全,如图8a所示;当n值选取太大时,提取结果包含较多噪声,如图8b所示,两种情况均不利于中心定位,因此需进行稻株提取实验,测算n值;使用ExtractBlobs工具,对用于方法分析的100幅图像进行稻株提取,同时过滤像素数小于100的连通区域,当n为6时,100幅图像样本中的稻株均被提取出,当n大于6时,提取结果中将包含更多噪声,因此在本实施例中,提取整穴稻株所用连通区域的数量n最大值为6。
七、采用固定连通区域数和异点比较、动态定位方法定位稻株中心,并比较结果
1)固定连通区域数的定位
使用ExtractBlobs工具提取100幅图像样本中检苗区内的连通区域,按像素面积大小降序排列,自动提取出连通区域的特征量几何信息,包括其几何中心坐标,即连通区域中心坐标;基于blob算法计算连通区域中心坐标(x0,y0),其原理为:连通区域R的(p,q)阶距为:
M p q = &Sigma; x &Element; R &Sigma; y &Element; R x p y q f ( x , y ) - - - ( 3 )
式中,点(x,y)位于连通区域内或边界上;因此,连通区域的矩M00为连通区域的像素点数。X方向和Y方向的一阶矩分别为:
M 10 = &Sigma; x &Sigma; y x f ( x , y ) - - - ( 4 )
M 01 = &Sigma; x &Sigma; y y f ( x , y ) - - - ( 5 )
则中心坐标为:
x 0 = M 10 ( R ( x , y ) ) / M 00 ( R ( x , y ) ) y 0 = M 01 ( R ( x , y ) ) / M 00 ( R ( x , y ) ) - - - ( 6 )
式中,R(x,y)为连通区域,f(x,y)为坐标点的像素值;根据所排列连通区域的顺序,选取j个连通区域用于稻株中心计算;当选取用于稻株中心计算的连通区域数小于或等于提取整穴稻株所用连通区域数,即0<j≤n≤6时,计算公式如下:
X i j = x 1 + x 2 + ... + x j j j = 1 ... n Y i j = y 1 + y 2 + ... + y j j j = 1 ... n - - - ( 7 )
式中,(Xij,Yij)为第i张图像中使用j个连通区域的中心坐标定位的中心,(xj,yj)为连通区域的中心坐标;当选取用于稻株中心计算的连通区域数大于提取整穴稻株所用的连通区域数,即n<j≤6时,Xij=Xin,Yij=Yin;由于j取值为1~6,因此每幅图像可得到六个稻株中心坐标。
2)异点比较、动态定位方法定位稻株中心
由固定连通区域数定位的中心与标定中心之间存在偏差,将此偏差定义为坐标偏移值,计算公式如:
L i j = ( X i j - X i 0 ) 2 + ( Y i j - Y i 0 ) 2 , i = 1 , 2 ... 50 - - - ( 8 )
式中,(Xij,Yij)为第i幅图像中稻株的定位坐标,(Xi0,Yi0)为第i幅图像中稻株的标定坐标,Lij第i幅图像中的坐标偏移值;每个定位中心对应一个坐标偏移值,则每幅图像均有6个坐标偏移值;
因为在不同图像中,定位偏移值最小的中心所使用连通区域的数量不同,所以为选出坐标偏移值最小的定位中心,采用如下方法进行坐标定位:将固定连通区域数定位的六个中心依次作为基准中心,计算与其余五个中心之间偏移值的平均值,则一幅图像共得到六个平均值,其中的最小值对应的中心坐标为该方法定位的稻株中心,例如第一幅图中六个平均值依次为 则定位的稻株中心坐标(X1,Y1)=(X11,Y11),其中(X1,Y1)表示第一幅图像由该方法定位的中心;
3)定位方法分析
为分析异点比较、动态优选坐标方法,分别计算100幅图像样本中优选前与优选后的定位坐标偏移值,经计算发现坐标偏移值中最大值为48.3pixel,为更好的分析定位结果,首先将偏移值范围设定在0~50pixels之间,然后将此区间均分为五等份,统计在各区间内的样本数如下表1所示。
表1 不同方法定位坐标偏移值
由表1可知,位于小偏移值区间内,异点比较、动态定位方法的样本数均多于固定连通区域数定位方法的样本数,定位更准确。
八、土槽条件下图像样本测试
采用上述方法对100幅测试图像样本(无水和有水条件下的图像样本各50幅)进行中心定位,将定位坐标和标定坐标由像素坐标变换为实际坐标,并计算定位中心的坐标偏移值δi,定位精度由均方根误差表示,均方根误差公式如下:
&sigma; = &Sigma; i = 0 50 &delta; i 2 50 - - - ( 9 )
式中,σ表示均方根误差,即定位精度,δi表示第i幅图像中的坐标偏移值。土槽图像样本定位结果如下表2所示。
表2 土槽测试定位结果
由表2可知,有水条件下的定位精度为8mm,无水条件下的定位精度为9.1mm。土槽测试定位结果存在偏差,其主要原因是采集图像期间土槽附近光照强度变化,导致相机进光量的改变,而图像的灰度值受进光量的影响,灰度值在二值图像中表示为0、1像素,因此光照强度变化影响二值图像中0、1像素的分布,影响稻株的识别与定位。
对比定位精度发现,有水条件下的定位精度更高,这主要是因为在绿光附近的光谱反射率:水面<潮湿土壤<水稻冠层,因此水面与稻株冠层的灰度值差异更大,可相对提高定位精度。因此,田间图像样本采集在有水、稳定遮光的条件下进行。
九、田间图像样本结果验证
机械株间除草时,存在以稻株茎基部为中心的机具零作用区域,该区域为稻株的保护区(即免耕区),相邻稻株保护区中间的区域为株间区域,机具在株间区域除草时覆盖的区域为株间除草覆盖区。由于稻株茎基部成束、冠部松散的生长特点,增大保护区有利于减小伤苗率,但同时会减小除草覆盖区,而除草覆盖区的大小直接影响除草率,因此为减小伤苗率的同时保证除草率,需设定适当范围的保护区。
在广东省肇庆市农业科学研究所实验田进行田间测试,稻株品种为永丰优9802,采集时稻株平均高度约为20cm,每穴苗数平均5株,稻田水层厚度约为1.5cm。共采集图像样本50幅。稻田杂草为稗草、节节菜等。测量田间采集的50穴稻株样本的茎基部直径,测量用于图像采集的50穴稻株的茎基部直径与冠层直径,其分布如图9所示。
由图9可以看出,稻株茎基部直径分布曲线较为平稳,而冠层直径分布曲线波动较大,如以冠层为基准划定保护区误差较大;并且株间除草时,除草部件主要作用于稻株茎基部,因此,应依据茎基部直径划定保护区。根据生产实践可知,机械移栽稻株株距一般为120~170mm,综合考虑茎基部直径、株间区域、除草率、伤苗率,本发明设定保护区直径为稻株茎基部直径的2倍。稻株茎基部区域与保护区示意如图10所示。
图10中圆A表示稻株的茎基部区域,圆B表示以标定中心为圆心的稻株保护区,简称为标定保护区,圆C表示以图像定位中心为圆心的稻株保护区,简称为定位保护区。其中圆A、B同心,2RA=RB=RC,圆C圆心位于圆B边界上。当定位中心偏移至稻株茎基部区域的边界上时,定位保护区圆C与茎基部区域圆A相切,机具作业时不伤苗;若定位中心偏移出茎基部范围,定位保护区只包含部分稻株或不包含稻株,株间区域包含稻株,株间除草覆盖区存在包含稻株的可能性,为避免这种情况,将除草覆盖区默认为株间区域。综上所述,当定位偏移出茎基部区域时,株间除草覆盖区包含稻株,机具作业时伤苗。
测量田间用于图像采集的50穴稻株的茎基部直径,结果如下表3所示。
表3 茎基部直径分布
由表3知,在田块中,茎基部直径均小于30mm。因此,稻株的保护区为以稻株中心为圆心,直径60mm的圆域。综上所述,在田块中,当稻株定位中心偏移值≤15mm,机具作业时不伤苗时,定位准确。
田间图像定位结果局部图如图11所示,图中圆表示保护区,×表示定位的中心。田间图像定位结果如下表4所示,其中定位准确率为定位准确的样本数在总样本数中所占百分比,单幅图像的处理时间由insight explore软件测得。
表4 田间图像样本定位结果
由表4可知,田间图像样本定位精度为8.6mm,定位准确率为90%,单幅图像的处理时间为8.5±1.5ms。分析影响田间稻株定位的原因是田间采集图像时,水稻田间杂草-稗草生长高度、形态与稻株相近,生长在稻株附近易被误识别为稻株,影响定位精度。
综上所述,本发明方法能实现稻株的识别与定位,可为机械株间除草稻株的定位提供技术支持。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (9)

1.基于机器视觉的稻株识别与定位方法,其特征在于:所述方法包括:
通过探究影响成像质量的相关因素,构建可提高自然光下稻株与背景灰度值差异的图像采集系统;通过图像采集系统采集多幅稻株图像;利用彩色图像灰度化、PointFilter工具、自动确定阈值处理稻株图像,将稻株图像分割成植物和背景两个部分;划定检苗区,在检苗区内测算提取整穴稻株所用连通区域数;采用固定连通区域数和异点比较、动态定位方法定位稻株中心。
2.根据权利要求1所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述图像采集系统包括镜头、智能CCD相机、计算机、遮光装置、实验槽以及移动平台,所述镜头安装在智能CCD相机上,所述智能CCD相机与计算机相连,所述智能CCD相机和遮光装置均安装在移动平台上,所述计算机中装有Insight explorer软件,且放置在移动平台上,所述实验槽上种有多株稻株,且放置在移动平台的下方;
所述通过探究影响成像质量的相关因素,构建可提高自然光下稻株与背景灰度值差异的图像采集系统,具体如下:
分别选择无水无遮光、有水无遮光、无水遮光、有水遮光四种条件进行图像采集,对比四种条件下采集的稻株图像,实验槽无水时,遮光时采集的稻株图像中稻株与背景的灰度差异较大,易于后续的图像分割;实验槽有水时,无遮光时水面倒映移动平台、天空以及天空中的物体,导致采集的稻株图像背景中包含较多噪声,影响后续图像处理;通过探究这些影响成像质量的因素后,图像采集均在遮光条件下进行。
3.根据权利要求2所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述通过图像采集系统采集多幅稻株图像,具体包括:
1)调整智能CCD相机位置,使稻株处于图像中部;
2)调整智能CCD相机的焦距与光圈,使图像成像清晰,调整好后固定;
3)将实验槽中水深调整至合适深度;
4)捕获并保存图像;
5)将实验槽中水全部排出,重复步骤4);
6)一批图像样本采集完成后,将待采集的稻株移栽至实验槽,移栽完成后将实验槽静置后重复步骤采集图像。
4.根据权利要求2所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述利用彩色图像灰度化、PointFilter工具、自动阈值处理稻株图像,具体包括:
1)彩色图像灰度化
采用Insight explore软件工具包中的ColorToGreyscaleFilter工具完成彩色图像灰度化过程;
2)PointFilter工具
采用Insight explore软件工具包中的PointFilter工具处理图像,其基本原理为:使用clamp函数对图像灰度值进行处理,如下式:
F(x,y)=max{f(x,y),K} (1)
式中,f(x,y)为像素点的灰度值,K为灰度值范围,F(x,y)为处理后像素点的灰度值;
3)自动确定阈值
选取最大类间方差法自动确定阈值对图像进行二值化处理,利用最大类间方差法计算出最优阈值Th后,根据下式将图像分成植物和背景两个部分:
G ( x , y ) = 255 , g ( x , y ) &GreaterEqual; T h 0 , g ( x , y ) < T h - - - ( 2 )
式中,g(x,y)表示坐标点(x,y)的像素值,G(x,y)=0为背景,G(x,y)=255为稻株、杂草、噪声。
5.根据权利要求1所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述划定检苗区是指在图像中心划定检苗区,图像中稻株冠部宽度在图像中占据合适宽度。
6.根据权利要求1所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述在检苗区内测算提取整穴稻株所用连通区域数,具体为:
使用ExtractBlobs工具识别检苗区内代表稻株的连通区域,假设提取整穴稻株所用连通区域数为n;使用ExtractBlobs工具对图像进行稻株提取,同时过滤像素数较小的连通区域;当n为G时,多幅图像中的稻株均被提取出,当n大于G时,多幅稻株图像的提取结果中包含更多噪声,即提取整穴稻株所用连通区域数n的最大值为G;其中,G在实际操作中为固定数值。
7.根据权利要求6所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述采用固定连通区域数和异点比较、动态定位方法定位稻株中心,具体包括:
1)固定连通区域数的定位
使用ExtractBlobs工具提取多幅稻株图像中检苗区内的连通区域,按像素面积大小降序排列,自动提取出连通区域的特征量几何信息,包括其几何中心坐标,即连通区域中心坐标,基于blob算法计算连通区域中心坐标(x0,y0),其原理为:连通区域R的(p,q)阶距为:
M p q = &Sigma; x &Element; R &Sigma; y &Element; R x p y q f ( x , y ) - - - ( 3 )
式中,点(x,y)位于连通区域内或边界上,即连通区域的矩M00为连通区域的像素点数,X方向和Y方向的一阶矩分别为:
M 10 = &Sigma; x &Sigma; y x f ( x , y ) - - - ( 4 )
M 01 = &Sigma; x &Sigma; y y f ( x , y ) - - - ( 5 )
则中心坐标为:
x 0 = M 10 ( R ( x , y ) ) / M 00 ( R ( x , y ) ) y 0 = M 01 ( R ( x , y ) ) / M 00 ( R ( x , y ) ) - - - ( 6 )
式中,R(x,y)为连通区域,f(x,y)为坐标点的像素值;根据所排列连通区域的顺序,选取j个连通区域用于稻株中心计算;当选取用于稻株中心计算的连通区域数小于或等于提取整穴稻株所用连通区域数,即0<j≤n≤G时,计算公式如下:
X i j = x 1 + x 2 + ... + x j j j = 1 ... n Y i j = y 1 + y 2 + ... + y j j j = 1 ... n - - - ( 7 )
式中,(Xij,Yij)为第i张图像中使用j个连通区域的中心坐标定位的中心,(xj,yj)为连通区域的中心坐标;当选取用于稻株中心计算的连通区域数大于提取整穴稻株所用的连通区域数,即n<j≤G时,Xij=Xin,Yij=Yin;j取值为1~G,每幅图像得到G个稻株中心坐标;
2)异点比较、动态定位方法定位稻株中心
由固定连通区域数定位的中心与标定中心之间存在偏差,将此偏差定义为坐标偏移值,计算公式如:
L i j = ( X i j - X i 0 ) 2 + ( Y i j - Y i 0 ) 2 - - - ( 8 )
式中,(Xij,Yij)为第i幅图像中稻株的定位坐标,(Xi0,Yi0)为第i幅图像中稻株的标定坐标,Lij第i幅图像中的坐标偏移值;每个定位中心对应一个坐标偏移值,则每幅图像均有G个坐标偏移值;
将固定连通区域数定位的G个中心依次作为基准中心,计算与其余G-1个中心之间偏移值的平均值,则一幅图像共得到G个平均值,其中的最小值对应的中心坐标为该方法定位的稻株中心。
8.根据权利要求1所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述方法还包括:
根据稻株多本穴栽、茎基部成束、冠层松散的生长特点,结合茎基部直径和稻株保护区来判定定位是否准确,最后进行实验验证。
9.根据权利要求8所述的基于机器视觉的稻株识别与定位方法,其特征在于:所述根据稻株多本穴栽、茎基部成束、冠层松散的生长特点,结合茎基部直径和稻株保护区来判定定位是否准确,具体为:
使用直尺测量稻株样本的茎基部直径,定义稻株保护区以稻株标定中心为圆心,半径为稻株茎基部直径的2倍;若定位中心偏移出茎基部范围时,定位中心所对应的稻株保护区不包含整穴稻株,机具作业时伤苗;当定位中心偏移至茎基部范围边界时,定位中心所对应的稻株保护区与稻株茎基部范围相切,机具作业时不伤苗;综上所述,当稻株定位中心偏移值小于或等于稻株茎基部半径时,定位准确。
CN201610160545.8A 2016-03-21 2016-03-21 基于机器视觉的稻株识别与定位方法 Active CN105844632B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610160545.8A CN105844632B (zh) 2016-03-21 2016-03-21 基于机器视觉的稻株识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610160545.8A CN105844632B (zh) 2016-03-21 2016-03-21 基于机器视觉的稻株识别与定位方法

Publications (2)

Publication Number Publication Date
CN105844632A true CN105844632A (zh) 2016-08-10
CN105844632B CN105844632B (zh) 2018-10-16

Family

ID=56587666

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610160545.8A Active CN105844632B (zh) 2016-03-21 2016-03-21 基于机器视觉的稻株识别与定位方法

Country Status (1)

Country Link
CN (1) CN105844632B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373133A (zh) * 2016-08-31 2017-02-01 重庆广播电视大学 一种基于暗通道去雾算法的农田插秧检测方法及其系统
CN108982136A (zh) * 2018-05-23 2018-12-11 安徽农业大学 一种用于排种器性能检测的系统及方法
CN110134129A (zh) * 2019-05-24 2019-08-16 华南理工大学 基于深度学习和adrc控制的水田除草机自动避苗系统
CN110276775A (zh) * 2019-07-08 2019-09-24 浙江理工大学 一种基于机器视觉的番茄穴盘苗嫁接切削参数识别方法
CN113850117A (zh) * 2021-07-13 2021-12-28 江苏省农业机械试验鉴定站 一种水稻插秧机性能检测系统及方法
CN117522950A (zh) * 2023-12-28 2024-02-06 江西农业大学 一种基于机器视觉的植物茎杆生长的几何参数测量方法
CN112614147B (zh) * 2020-12-24 2024-03-22 中国农业科学院作物科学研究所 一种基于rgb影像的作物苗期植株密度估算的方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980249A (zh) * 2010-11-12 2011-02-23 中国气象局气象探测中心 作物发育及长势自动观测方法及装置
CN102184392A (zh) * 2011-05-25 2011-09-14 中国水稻研究所 基于dsp的水稻杂草识别系统及其识别方法
CN104392430A (zh) * 2014-10-22 2015-03-04 华南农业大学 基于机器视觉的超级杂交稻穴播量的检测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980249A (zh) * 2010-11-12 2011-02-23 中国气象局气象探测中心 作物发育及长势自动观测方法及装置
CN102184392A (zh) * 2011-05-25 2011-09-14 中国水稻研究所 基于dsp的水稻杂草识别系统及其识别方法
CN104392430A (zh) * 2014-10-22 2015-03-04 华南农业大学 基于机器视觉的超级杂交稻穴播量的检测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
胡炼 等: "基于机器视觉的株间机械除草装置的作物识别与定位方法", 《农业工程学报》 *
项荣 等: "田间环境下果蔬采摘快速识别与定位方法研究进展", 《农业机械学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373133A (zh) * 2016-08-31 2017-02-01 重庆广播电视大学 一种基于暗通道去雾算法的农田插秧检测方法及其系统
CN106373133B (zh) * 2016-08-31 2019-02-26 重庆广播电视大学 一种基于暗通道去雾算法的农田插秧检测方法及其系统
CN108982136A (zh) * 2018-05-23 2018-12-11 安徽农业大学 一种用于排种器性能检测的系统及方法
CN110134129A (zh) * 2019-05-24 2019-08-16 华南理工大学 基于深度学习和adrc控制的水田除草机自动避苗系统
CN110276775A (zh) * 2019-07-08 2019-09-24 浙江理工大学 一种基于机器视觉的番茄穴盘苗嫁接切削参数识别方法
CN110276775B (zh) * 2019-07-08 2021-05-04 浙江理工大学 一种基于机器视觉的番茄穴盘苗嫁接切削参数识别方法
CN112614147B (zh) * 2020-12-24 2024-03-22 中国农业科学院作物科学研究所 一种基于rgb影像的作物苗期植株密度估算的方法及系统
CN113850117A (zh) * 2021-07-13 2021-12-28 江苏省农业机械试验鉴定站 一种水稻插秧机性能检测系统及方法
CN113850117B (zh) * 2021-07-13 2024-05-14 江苏省农业机械试验鉴定站 一种水稻插秧机性能检测系统及方法
CN117522950A (zh) * 2023-12-28 2024-02-06 江西农业大学 一种基于机器视觉的植物茎杆生长的几何参数测量方法
CN117522950B (zh) * 2023-12-28 2024-03-12 江西农业大学 一种基于机器视觉的植物茎杆生长的几何参数测量方法

Also Published As

Publication number Publication date
CN105844632B (zh) 2018-10-16

Similar Documents

Publication Publication Date Title
CN105844632A (zh) 基于机器视觉的稻株识别与定位方法
CN109115776B (zh) 一种基于颜色和深度信息的穴盘苗长势无损监测方法和装置
CN100416590C (zh) 利用位置和纹理特征自动识别作物苗期田间杂草的方法
Zhang et al. Improved maize cultivated area estimation over a large scale combining MODIS–EVI time series data and crop phenological information
Lenney et al. The status of agricultural lands in Egypt: the use of multitemporal NDVI features derived from Landsat TM
CN105678281B (zh) 基于光谱和纹理特征的地膜覆盖农田遥感监测方法
CN102524024B (zh) 基于计算机视觉的作物灌溉系统
CN111598045B (zh) 一种基于对象图谱和混合光谱的遥感耕地变化检测方法
CN111104858A (zh) 一种基于形态模型法的大范围作物物候提取方法
CN106718363B (zh) 一种面向精细农业的灌溉试验方法及其试验平台
Li et al. Prediction of plant transpiration from environmental parameters and relative leaf area index using the random forest regression algorithm
CN109543552B (zh) 基于生长期多特征提取的水稻生长区域制图方法及系统
CN105758806B (zh) 基于光谱特征的地膜覆盖农田遥感监测方法
CN102663396B (zh) 一种水稻乳熟期自动检测的方法
CN108710766A (zh) 一种基于生长模型的温室植物水肥机调肥参数计算方法
CN108037123A (zh) 一种杂交稻钵体盘播种性能参数精密检测方法
CN107767364A (zh) 基于红外热图像精准提取树木冠层温度的方法
CN109325433A (zh) 引入地形因子的黑土区大豆生物量多时相遥感反演方法
CN107907075A (zh) 花生叶面积指数遥感监测方法
CN114694047A (zh) 一种玉米播种质量的评价方法及装置
CN110024648A (zh) 基于深度神经网络的川贝母精准种植方法
CN103413172A (zh) 玉米苗期缺苗数的测量方法及装置
CN114972993A (zh) 一种基于遥感影像的覆膜农田识别提取方法
CN115968760B (zh) 一种基于马铃薯根系时空分布的在地化灌溉方法
CN111192315B (zh) 一种基于多源信息的实际灌溉面积提取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant