CN103236061B - 基于dct和区域生长的白粉虱图像分割方法 - Google Patents

基于dct和区域生长的白粉虱图像分割方法 Download PDF

Info

Publication number
CN103236061B
CN103236061B CN201310156717.0A CN201310156717A CN103236061B CN 103236061 B CN103236061 B CN 103236061B CN 201310156717 A CN201310156717 A CN 201310156717A CN 103236061 B CN103236061 B CN 103236061B
Authority
CN
China
Prior art keywords
gray
image
diffy
clear area
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310156717.0A
Other languages
English (en)
Other versions
CN103236061A (zh
Inventor
张水发
王开义
刘忠强
潘守慧
王志彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Research Center for Information Technology in Agriculture
Original Assignee
Beijing Research Center for Information Technology in Agriculture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Research Center for Information Technology in Agriculture filed Critical Beijing Research Center for Information Technology in Agriculture
Priority to CN201310156717.0A priority Critical patent/CN103236061B/zh
Publication of CN103236061A publication Critical patent/CN103236061A/zh
Application granted granted Critical
Publication of CN103236061B publication Critical patent/CN103236061B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Catching Or Destruction (AREA)

Abstract

本发明公开了一种基于DCT和区域生长的白粉虱图像分割方法,其基于DCT和区域生长的白粉虱图像分割方法模仿人的信息处理功能,先通过清晰度特征粗略找出感兴趣区域,然后结合害虫图像局部聚合度较高的特性,利用区域生长方法提取完整害虫目标。

Description

基于DCT和区域生长的白粉虱图像分割方法
技术领域
本发明涉及病虫害图像自动化识别领域,特别涉及一种基于DCT和区域生长的白粉虱图像分割方法。
背景技术
随着机器视觉技术的应用和发展,利用数字图像处理技术对作物病虫害图像进行处理、分割、识别,从而实现病虫害自动化识别成为可能,因此,机器视觉技术作为一种重要的病虫害自动化识别手段已经日益引起人们的重视,并广泛地应用于病虫害防治领域。
作物上害虫种群密度和危害程度是害虫防治决策的重要依据,也是精确喷药的关键信息。与人工方法相比,使用机器视觉自动获取害虫信息,不仅可降低劳动强度、提高工作效率,更加客观,避免人为因素的影响导致结果的不准确性,而且便于与后续的防治决策和精确施药技术对接和技术集成。目前,害虫检测和技术的难点之一是:在开放田间环境中,环境复杂,背景颜色变化多样,背景、叶片和害虫的灰阶范围常常重叠,导致害虫的自动分割困难。目前研究较多的是阈值法和阈值与聚类相结合的方法,在大田开放环境下,不可避免导致误分割,因此找到一种能在田间开放环境下准确分割害虫的方法迫在眉睫。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是如何对田间开放环境中的白粉虱图像进行分割。
(二)技术方案
为解决上述问题,本发明提供一种基于DCT和区域生长的白粉虱图像分割方法,包括步骤:S1、将白粉虱图像转换到灰度空间,对所获得的灰度图像y进行中值滤波去噪得到y1;S2、将y1用8*8模板做离散余弦变换得到dct1,截断dct1的高频信号,然后进行反离散余弦变换,重新将图像转换到灰度空间,得到灰度图像y2;S3、令差值图像diffy=|y-y2|;S4、将diffy归一化后投影到灰度空间得到灰度图像gray_diff,计算灰度图像的模糊熵,通过最大化模糊熵得到分割阈值,将图像分割成清晰区域和模糊区域,得到二值图像binary;S5、在原始的白粉虱图像中标记清晰区域并建立灰度值高斯模型,对标记的清晰区域进行自检测,剔除明显偏离模型的点,得到最终的清晰区域,开闭运算去噪,消除离散噪声点,得到起始生长区域binary1;S6、计算binary1中清晰区域的期望灰度值μ和方差σ;S7、从binary1标记的起始生长区域开始生长,将邻域灰度相似的点标记为生长区域,所述邻域灰度相似的点为邻域的灰度值和清晰区域的期望灰度值μ的差值在一定方差范围内的点,并从该点继续生长;否则,找到下一个没有标记的生长点进行生长,直到全部标记完成,从背景和叶片中分离出病虫目标。
优选地,步骤S2中截断高频信号的方法是:计算8*8模板在原始的白粉虱图像中对应的像素灰度值之和,记为gray,将截断高频信号的阈值设置为gray/2。
优选地,步骤S4中将diffy归一化后投影到灰度空间得到灰度图像gray_diff的计算方法是:gray_diff(i,j)=diffy(i,j)/max(diffy)*255,i,j分别为图像的高和宽,max(diffy)为diffy中的最大值。
优选地,步骤S4中计算阈值的方法是:将灰度图像gray_diff模糊化,计算图像的模糊熵,通过设定模糊熵最大时的参数选择得到最优阈值。
优选地,步骤S5中明显偏离模型的点为:与该高斯模型均值的差值在3倍方差范围外。
优选地,步骤S6中,清晰区域的期望灰度值:
方差:
其中,H、W分别为图像的高和宽。
优选地,步骤S7中,用深度优先的方法进行区域生长。
(三)有益效果
本发明的上述技术方案具有如下优点:基于DCT和区域生长的白粉虱图像分割方法方法模仿人的信息处理功能,先通过清晰度特征粗略找出感兴趣区域,然后结合害虫图像局部聚合度较高的特性,利用区域生长方法提取完整害虫目标。
附图说明
图1是本发明基于DCT和区域生长的白粉虱图像分割方法的流程示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
根据本发明提出了一种基于DCT和区域生长的白粉虱图像方法,包括步骤:
1、一种基于DCT和区域生长的白粉虱图像分割方法,其特征在于,包括步骤:
S1、将图像转换到灰度空间,对灰度图像y进行中值滤波去噪得到y1;
S2、将y1用8*8模板做离散余弦变换得到dct1,截断dct1的高频信号,然后进行反离散余弦变换,重新将图像转换到灰度空间,得到灰度图像y2;
S3、令差值图像diffy=|y-y2|;
S4、将diffy归一化后投影到灰度空间得到灰度图像gray_diff,计算灰度图像的模糊熵,通过最大化模糊熵得到分割阈值,将图像分割成清晰区域和模糊区域,得到二值图像binary;
S5、在原始图像中标记清晰区域并建立灰度值高斯模型,对标记的清晰区域进行自检测,剔除那些明显偏离模型的点,得到最终的清晰区域,开闭运算去噪,消除离散噪声点,得到起始生长区域binary1;
S6、计算binary1中清晰区域的期望灰度值μ和方差σ;
S7、从binary1标记的起始生长区域开始生长,将邻域灰度相似的点标记为生长区域,即邻域的灰度值和清晰区域的期望灰度值μ的差值在一定方差范围内,并从该点继续生长;否则,找到下一个没有标记的生长点进行生长,直到全部标记完成,从背景和叶片中分离出病虫目标。
其中,步骤S2中截断高频信号的方法是:计算8*8模板在原始图像中对应的像素灰度值之和,记为gray,一般来说,高频信号远低于低频信号,因此将截断高频信号的阈值设置为gray/2。
其中,步骤S4中将diffy归一化后投影到灰度空间得到灰度图像gray_diff的计算方法是:gray_diff(i,j)=diffy(i,j)/max(diffy)*255,i,j分别为图像的高和宽,max(diffy)为diffy中的最大值。
其中,步骤S4中计算阈值的方法是:将灰度图像gray_diff模糊化,计算图像的模糊熵,通过设定模糊熵最大时的参数选择得到最优阈值。
其中,步骤S5中明显偏离模型的点为:与该高斯模型均值的差值在3倍方差范围外。
其中,步骤S6中,清晰区域的期望灰度值:
方差:
其中,H、W分别为图像的高和宽(正确)。
其中,步骤S7中,用深度优先的方法进行区域生长。
如图1所示,白粉虱图像分割方法具体过程如下:
1、将图像转换到灰度空间,对灰度图像y进行中值滤波去噪得到y1;
2、将y1用8*8模板做离散余弦变换得到dct1,计算8*8模板在原始图像y1中对应的像素灰度值之和,记为gray,一般来说,高频信号远低于低频信号,因此将截断高频信号的阈值设置为gray/2。截断dct1的高频信号,然后进行反离散余弦变换,重新将图像转换到灰度空间,得到灰度图像y2;
3、令差值图像diffy=|y-y2|;
4、将diffy归一化后投影到灰度空间得到灰度图像gray_diff,其中gray_diff(i,j)=diffy(i,j)/max(diffy)*255,i,j分别为图像的高和宽,max(diffy)为diffy中的最大值;将灰度图像gray_diff分割成清晰区域和模糊区域的阈值假设为x(0≤x≤255),则图像gray_diff的模糊熵为:
H ( x ) = - ∑ i = 0 x hist i * x / 225 * ln ( x / 255 ) - ∑ i = x + 1 255 hist i * ( 1 - x / 255 ) * ln ( 1 - x / 255 )
其中,histi为灰度图像gray_diff中灰度值为i的像素数;
通过最大化模糊熵H(x)得到阈值x,从而将图像分割成清晰区域和模糊区域,得到二值图像binary;
5、对二值图像binary中的清晰区域按照灰度建立高斯模型gauss(μ,σ),μ为清晰区域的灰度平均值,σ为方差;并对模型进行自检测,剔除那些明显偏离模型的点,即|ai-μ|>3*σ,其中,ai为像素灰度值,得到最终的清晰区域,开闭运算去噪,消除离散噪声点,得到起始生长区域binary1;
6、计算binary1中清晰区域的期望灰度值μ和方差σ:
其中,H、W分别为图像的高和宽;
7、从binary1标记的起始生长区域,用深度优先的方法进行生长,将邻域灰度相似的点标记为生长区域,即邻域的灰度值和清晰区域的期望灰度值μ的差值在3倍方差范围内,并从该点继续生长;否则,找到下一个没有标记的生长点进行生长,直到全部标记完成,从背景和叶片中分离出病虫目标。
本发明对病虫害图像分割具有通用性,但由于产品种类很多,因此本发明只举一个用于白粉虱图像分割的实施实例,其它病虫害图像分割可以参照该实施实例的方法,具体针对所识别的病虫害,改变相关参数,就可以对新的病虫害图像进行分割。
本发明与人工分割相比,结果更客观公正,能适应田间开放环境,并且分割速度快,分割结果稳定,更有利于与后期的精准施药相结合。将机器视觉用于病虫害图像识别过程中,既可以让人们从复杂枯燥的工作中脱离出来,又可以更加快速准确的得到病虫害的危害程度,提高识别的精度和鲁棒性,该发明可以应用于田间开放环境中的病虫害自动化分割与识别、精准施药中。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和替换,这些改进和替换也应视为本发明的保护范围。

Claims (6)

1.一种基于DCT和区域生长的白粉虱图像分割方法,其特征在于,包括步骤:
S1、将白粉虱图像转换到灰度空间,对所获得的灰度图像y进行中值滤波去噪得到y1;
S2、将y1用8*8模板做离散余弦变换得到dct1,截断dct1的高频信号,然后进行反离散余弦变换,将反离散余弦变换后的图像转换到灰度空间,得到灰度图像y2;
S3、令差值图像diffy=|y-y2|;
S4、将diffy归一化后投影到灰度空间得到灰度图像gray_diff,计算灰度图像的模糊熵,通过最大化模糊熵得到分割阈值,将图像分割成清晰区域和模糊区域,得到二值图像binary;
S5、在原始的白粉虱图像中标记清晰区域并建立灰度值高斯模型,对标记的清晰区域进行自检测,剔除明显偏离模型的点,得到最终的清晰区域,开闭运算去噪,消除离散噪声点,得到起始生长区域binary1;
S6、计算binary1中清晰区域的期望灰度值μ和方差σ;
S7、从binary1标记的起始生长区域开始生长,将邻域灰度相似的点标记为生长区域,所述邻域灰度相似的点为邻域的灰度值和清晰区域的期望灰度值μ的差值在一定方差范围内的点,即所述邻域灰度相似的点为邻域的灰度值和清晰区域的期望灰度值μ的差值在3倍方差范围内的点,并从该点继续生长;否则,找到下一个没有标记的生长点进行生长,直到全部标记完成,从背景和叶片中分离出病虫目标;
其中,步骤S5中明显偏离模型的点为:与该高斯模型均值的差值在3倍方差范围外。
2.根据权利要求1所述的方法,其特征在于,步骤S2中截断高频信号的方法是:计算8*8模板在原始的白粉虱图像中对应的像素灰度值之和,记为gray,将截断高频信号的阈值设置为gray/2。
3.根据权利要求1所述的方法,其特征在于,步骤S4中将diffy归一化后投影到灰度空间得到灰度图像gray_diff的计算方法是:gray_diff(i,j)=diffy(i,j)/max(diffy)*255,i,j分别为图像的高和宽,max(diffy)为diffy中的最大值。
4.根据权利要求1所述的方法,其特征在于,步骤S4中计算阈值的方法是:将灰度图像gray_diff模糊化,计算图像的模糊熵,通过设定模糊熵最大时的参数选择得到最优阈值。
5.根据权利要求1所述的方法,其特征在于,步骤S6中,清晰区域的期望灰度值:
方差:
其中,H、W分别为图像的高和宽。
6.根据权利要求1所述的方法,其特征在于,步骤S7中,用深度优先的方法进行区域生长。
CN201310156717.0A 2013-04-28 2013-04-28 基于dct和区域生长的白粉虱图像分割方法 Active CN103236061B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310156717.0A CN103236061B (zh) 2013-04-28 2013-04-28 基于dct和区域生长的白粉虱图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310156717.0A CN103236061B (zh) 2013-04-28 2013-04-28 基于dct和区域生长的白粉虱图像分割方法

Publications (2)

Publication Number Publication Date
CN103236061A CN103236061A (zh) 2013-08-07
CN103236061B true CN103236061B (zh) 2016-01-20

Family

ID=48884100

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310156717.0A Active CN103236061B (zh) 2013-04-28 2013-04-28 基于dct和区域生长的白粉虱图像分割方法

Country Status (1)

Country Link
CN (1) CN103236061B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574857B (zh) * 2015-12-11 2019-02-15 小米科技有限责任公司 图像分析方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794406A (zh) * 2010-04-06 2010-08-04 湖南省植物保护研究所 烟粉虱成虫密度自动计数系统
CN102509290A (zh) * 2011-10-25 2012-06-20 西安电子科技大学 基于显著性的sar图像机场跑道边缘检测方法
CN102930249A (zh) * 2012-10-23 2013-02-13 四川农业大学 基于颜色和模型的农田害虫识别和计数方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794406A (zh) * 2010-04-06 2010-08-04 湖南省植物保护研究所 烟粉虱成虫密度自动计数系统
CN102509290A (zh) * 2011-10-25 2012-06-20 西安电子科技大学 基于显著性的sar图像机场跑道边缘检测方法
CN102930249A (zh) * 2012-10-23 2013-02-13 四川农业大学 基于颜色和模型的农田害虫识别和计数方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Image and Video Segmentation by Combining Unsupervised Generalized Gaussian Mixture Modeling and Feature Selection;Mohand Said Allili et al;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20101031;第20卷(第10期);1373-1377 *

Also Published As

Publication number Publication date
CN103236061A (zh) 2013-08-07

Similar Documents

Publication Publication Date Title
CN103942803B (zh) 基于sar图像的水域自动检测方法
CN112750106B (zh) 一种基于非完备标记的深度学习的核染色细胞计数方法、计算机设备、存储介质
CN101299268B (zh) 适于低景深图像的语义对象分割方法
CN103996018B (zh) 基于4dlbp的人脸识别方法
CN104899255B (zh) 适用于训练深度卷积神经网络的图像数据库的构建方法
CN105740945B (zh) 一种基于视频分析的人群计数方法
CN104036479B (zh) 一种基于非负矩阵分解的多聚焦图像融合方法
CN103473767B (zh) 一种腹部软组织核磁图像分割的方法和系统
DE102013207484A1 (de) Nummernschildzeichensegmentierung unter Verwendung von Wahrscheinlichkeitsmaximierung
CN103236060A (zh) 基于多特征融合的白粉虱图像分割方法
CN103295010B (zh) 一种处理人脸图像的光照归一化方法
CN102968782A (zh) 一种彩色图像中显著对象的自动抠取方法
CN109993173B (zh) 一种基于种子生长及边界约束的弱监督图像语义分割方法
CN103886589A (zh) 面向目标的自动化高精度边缘提取方法
CN104751122B (zh) 一种农作物病情指数的计算方法及系统
CN103679173A (zh) 图像显著区域检测方法
CN102208099A (zh) 一种抗光照变化的作物彩色图像分割方法
CN101447027B (zh) 磁码字符区域的二值化方法及其应用
CN115908371A (zh) 基于优化分割的植物叶片病虫害程度检测方法
CN103020953A (zh) 一种指纹图像的分割方法
CN102609903B (zh) 一种基于边缘流的活动轮廓模型图像分割的方法
CN105184790A (zh) 一种烟田图像分割方法
CN103246871B (zh) 一种基于图像非线性增强的非理想虹膜外边界定位方法
CN102521582A (zh) 一种适用于低对比度视频的人体上半身检测及分割的方法
CN103236061B (zh) 基于dct和区域生长的白粉虱图像分割方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant