CN113420636A - 一种基于深度学习与阈值分割的线虫识别方法 - Google Patents
一种基于深度学习与阈值分割的线虫识别方法 Download PDFInfo
- Publication number
- CN113420636A CN113420636A CN202110678930.2A CN202110678930A CN113420636A CN 113420636 A CN113420636 A CN 113420636A CN 202110678930 A CN202110678930 A CN 202110678930A CN 113420636 A CN113420636 A CN 113420636A
- Authority
- CN
- China
- Prior art keywords
- region
- value
- nematode
- threshold
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明是一种基于深度学习与阈值分割的线虫识别方法,包括生成待选区域;对待选区域进行判断,根据神经网络输出的概率值判断出其中确定包含虫子的目标区域;之后,利用非极大值抑制算法消除掉发生重叠的目标区域。然后,确定每个目标区域的最佳分割阈值,对每个目标区域进行二值化分割,并利用连通域算法判断线虫密度,实现精准定位医学研究对象。本发明根据线虫图像的自身特点,运用相配的算法对线虫进行识别,算法简单,运算速度快,且准确率高。
Description
技术领域
本发明涉及一种线虫识别算法,具体是一种基于深度学习与阈值分割的线虫识别方法,属于图像处理和目标识别技术领域。
背景技术
目标识别与检测技术就是赋予计算机理解图像的能力,如同人类通过视觉观察和认知事物。在目标识别领域内,根据识别的深入程度,如图1所示,又可以细分为三类:目标分类,目标检测和目标分割。
目标分类(Classification)是指,对于给定的一张图像或者区域,输出一个判定类别,如图1中的CAT、DOG、DUCK等,目标分类默认处理的图像或区域中只包含单个目标。
目标检测(Detection)是指,对于一张包含多个目标图片,先将每个目标定位(Localization),从而将整张图划分为只包含单个目标的区域,然后再对每个区域进行分类,目标检测中划分区域一般使用矩形框完成。
目标分割(Segmentation)是指,不仅判断每个目标的类别和大致所在区域(矩形框),还要具体到图片中的每个像素点,找到每个目标占据的所有像素点。
因此,目标识别的三个类别实质上是由浅入深,分别是图像级识别、区域级识别和像素级识别。
一般来讲,目标识别与检测算法分为最重要的两大类,分别是基于传统方法和基于深度学习方法,如图2所示:
传统方法一般基于经典数字图像处理算法,如对图像滤波、梯度计算、借助像素的连通域关系等,传统方法的特点是实现简单、直观、不需要数据集训练,但是准确率一般,鲁棒性不好。因为传统方法都是基于简单数学运算,一旦处理的图像数量增多,就很难适应不同的复杂情况,往往需要人工手动调节参数。
基于深度学习的方法是在2012年的深度学习框架被提出后兴起,一般做法是使用大量采集、标注好的图像数据集训练网络,从而能够对给定目标做出准确判断。比起传统方法,深度学习方法的准确率大大提高,面对实际中的不同复杂情况适应性好,但是必须事先采集大量数据集进行标注,以提供给网络训练,需要受过训练的人员投入较多时间成本。
就目前的实际而言,应用以基于深度学习的方法为主流,最具有代表性的是YOLO系列与RCNN系列算法。
基于深度学习的算法又可以分成两类:单阶段和双阶段,单阶段算法是指直接对像素点的概率值进行回归,实现目标分割,YOLO系列算法属于单阶段的。双阶段算法是指,首先生成“待选框”,即先找到一批有可能是目标的框,里面包含了所有的目标和其它干扰背景,然后再利用网络对每个待选框进行预测,判定它们是否确实是目标。
目前,目标识别与检测已经成为现代信息技术最重要的基石之一,在许多领域发挥了重要作用,如图3所示。
在国外,Afshari等提出一种基于YOLO的深度网络结构,用于检测PET图像中的脑、心脏等器官,平均准确率在75%以上,Almasni等使用YOLO网络检测乳腺肿块,定位准确率达到99%。国内同样有大量的应用,合肥工业大学的卞景帅,卢家品等人基于RCNN网络自动检测结核杆菌,平均准确率达到80%,每张图片检测时间在1s以内,以及还有许多对病毒、血细胞、脏器、肿瘤等不同医学目标进行识别和检测的应用。
但是这些研究只是借助已经成熟的架构(YOLO和RCNN)所做的应用,具体说,凡是以“基于RCNN/YOLO/(等框架)”开头的研究,研究者所做的工作只是采集他们研究目标的图片,然后标注好,送进去训练即可,即便有对算法做的改进,也是在这个架构之上做的改进,所以具有一定的局限性。
虽然YOLO、RCNN等框架是众多成熟开发者研究出来的先进算法,但是它也并不适用于所有的实际问题。事实上,考虑到主流应用方式,以及为了宣传视频的视觉效果,YOLO、RCNN等框架大部分主流算法架构都是针对人类或者动物检测的,尤其是人类,与医学图像并不适用,虽然强行去运用也能收获较好的效果,这是因为这个算法架构是无数顶尖研究人员不断完善的成果,但是在付出相同代价的情况下,肯定是用更匹配的架构会更好。
举个典型的例子,RCNN算法中的第一步是利用Selective Search算法搜集待选区域,该算法的原理是不断合并相似像素点,生成不同大小的区域,显然,这个算法是针对比较大的目标的,而且图像的饱和度要高,包含不同大小的像素值,效果才好,但是线虫图像的特点是背景灰暗、目标小,且非常密集,以及线虫的大小是基本确定的,所以没必要搜索大小差异很大的区域,这个信息相当于被浪费了,如果强行应用这个算法,会造成大量的运算时延,而且效果较差。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于深度学习与阈值分割的线虫识别方法,能够根据线虫图像的自身特点,运用相配的算法对线虫进行识别,算法简单,运算速度快,且准确率高。
本发明一种基于深度学习与阈值分割的线虫识别方法,包括以下步骤:
S1生成待选区域:从用户接口接收待处理医学图像及其参数,利用Harris算法从待处理医学图像中提取线虫特征点,并在特征点周围以固定边长生成待选区域;
S2用训练好的神经网络,对步骤S1中待选区域进行预测,根据神经网络输出的概率值判断出其中确定包含虫子的区域;
S3像素分割:利用阈值分割法对每个确定包含线虫的区域进行二值化分割,并利用连通域算法计算连通域数量和面积,从而对线虫的密度进行判断。
与现有技术相比,由于线虫图像背景灰暗、目标小且非常密集,与现有成熟的目标识别框架并不匹配,因此本发明根据线虫自身的特点,基于Harris算子提取特征区域,并利用改进后的Lenet-5卷积神经网络进行预测,采用基于灰度直方图梯度的方法确定分割阈值,将图像分为纯白(线虫)和纯黑(背景)两类,再对线虫密度情况进行判断。本发明运算速度快,准确率高。
附图说明
图1是传统目标识别任务示意图;
图2是传统目标检索算法分类;
图3是传统目标检测与识别算法实际应用示意图;
图4是本发明流程图;
图5是本发明输入的一张待检测的线虫医学图像;
图6是本发明生成待选区域分布示意图;
图7是本发明经神经网络预测后的目标区域分布情况;
图8是本发明一只线虫图像利用灰度重映射增强图像对比度示意图;
图9是本发明训练网络使用的部分数据集示例示意图;
图10是本发明NMS算法处理后的目标区域分布情况示意图;
图11是本发明理想目标区域的灰度直方图;
图12是本发明实际目标区域的灰度直方图;
图13是本发明最佳阈值示意图;
图14是本发明一张典型的包含两只线虫的目标区域示意图;
图15是图14的灰度直方图;
图16是图15最佳阈值分割结果示意图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图4所示,本发明一种基于深度学习与阈值分割的线虫识别方法,包括以下步骤:
S1生成待选区域:从用户接口接收待处理医学图像及其参数,利用Harris算法从待处理医学图像中提取线虫特征点,并在特征点周围以固定边长生成待选区域,具体方法如下:
S1.1使用者输入一张包含有大量线虫的医学图像,并选择输入可调节的参数,如图5所示;
S1.2将输入的医学图像转化为灰度图,然后计算其Harris响应值R,通过以下方法得出Harris响应值R:
S1.2.1计算医学图像中每个像素在水平和垂直方向上的偏导数IX,Iy;
S1.2.2对医学图像进行高斯滤波,离散二维零均值高斯函数为:
其中,x,y为像素坐标值,x,y取非负整数;σ为标准差,是决定高斯分布的参数;
S1.2.3计算医学图像中每个像素的Harris响应值R:
R={Ix 2×Iy 2-(IxIy)2}-k{Ix 2+Iy 2}2
其中,Ix,Iy分别为该像素在X和Y轴方向上的偏导数:k是常数,0.04≤k≤0.06;
令医学图像函数为P(x,y):(x,y)为像素坐标,P(x,y)为像素值;
则对于任一像素值P0(x0,y0),该像素的Ix,Iy为:
Ix=P0(x0+1,y0)-P0(x0,y0)
Iy=P0(x0,y0+1)-P0(x0,y0)
S1.2.4将各像素的Harris响应值R与预先设定的阈值D相比,将R>D的像素,作为响应特征点,将该阈值D设置为响应值R中最大值Rmax的0.001-0.01倍,即0.001Rmax≤D≤0.01Rmax;本实施例中将该阈值D设置为响应值R最大值的0.005倍。
S1.2.5根据响应特征点,以设置的边长width作为固定边长,生成待选区域即待选框,其中,边长参数width由用户手动观察、调节、输入,具体如下:
令医学图像的像像素矩阵为M,某响应特征点坐标为(x,y),固定边长为width,则生成的待选区域Region为:
待选区域的大小在图中刚好包含一只线虫时最合适,如对于640*480的图片,待选区域边长可设置为14,对于1080*960的图片,则待选区域边长可设置为20。
如图6所示,利用Harris算法从原始医学图像(即从用户接口接收的待处理医学图像)中获取了约三百个待选区域,这些待选区域基本上已经覆盖了所有可能包含有线虫的区域。
进行上述处理的原因在于:医学图像的背景相对单调,而线虫是一个局部的像素值剧烈变化的点,因此利用Harris算子计算梯度,很好地捕捉到了这种变化,且这样的运算量也非常小,以一个固定大小生成待选区域的原因是线虫的尺寸是固定的。在本发明应用的医学图像中,一般按照医学图像的尺寸边长设置为14或20,这样设计大大简化了运算量。
S2用训练好的神经网络,对步骤S1中待选区域(约三百个待选区域)进行预测,根据神经网络输出的概率值,判断出其中确定包含虫子的区域,该区域为目标区域。
步骤S2的神经网络为改进后的Lenet-5卷积神经网络,使用以下方法对的Lenet-5卷积神经网络进行改进、训练和预测:
S2.1将Lenet-5神经网络输出层神经元改进为两个,即两个输出值,其中一个输出值用来判断判断图像是否为是线虫,另一个输出值用来预测为干扰背景的概率值(1减去该概率值即可得到了线虫的概率值);
S2.2采集4800张线虫医学图像,并依次对该图像进行灰度重映射、图像增强、归一化、格式转化处理,如图9所示;
灰度重映射是指,将原本的图像灰度重新映射到(0,255)内,从而增强图像的对比度。图像的灰度级有0到255共256个,但是由于线虫的图片一般背景灰暗,颜色单一,可能取值只占其中很小一部分。利用灰度重映射,使灰度值增大,使背景和线虫的差值更大,提高了识别准确率和像素分割的精度。如图8所示,对于一条线虫的灰度重映射,效果非常明显。
图像增强是指,针对同一张图像,在加载训练数据时,利用旋转、翻转、缩放、变形等操作,加载出多个数据,这实际上使原本数据集大大扩充了。在本发明中,虽然只有四千多张线虫医学图像,但是对于每张医学图像,在训练神经网络时加载了其旋转、反转的其它数据,因此可用的数据实际上达到了两万组左右。
归一化是指,将所有像素值统一到[0,1]的范围内,大大加快了神经网络的训练速度。神经网络的训练是每步一个学习率,慢慢更新的,如果神经网络中输入的值太大,函数值也会太大,那么训练的速度就会很慢,而把它们统一到[0,1]的范围内,就大大加快了训练速度,但是相应的,在预测时,也应该把数据归一化到[0,1]的范围内。
格式转化是指,我们将图片的格式统一转化为与python更兼容的bmp格式,并且在加载数据时,统一转化为[28,28,1]大小的矩阵,为了方便输入进神经网络,我们使用圣经网络的输入神经元个数是28*28个。
S2.3将步骤S2.2处理后的医学图像输入到步骤S2.1的神经网络中,利用梯度下降方法对步骤S2.1中改进后的Lenet-5卷积神经网络进行训练;
S2.4利用经步骤S2.3训练后的神经网络,对步骤S1.2.4中生成的所有Region进行预测,将预测包含线虫的概率大于50%的区域,确定为包含线虫的区域,该区域为目标区域。如图7所示,预测后得到100个确定包含线虫的区域。实际应用中,实际上预测可以达到非常准确,对于确定是线虫的区域,网络的输出值一般为99%以上;
其中,梯度下降法的方法包括以下步骤:
1)通过计算出的当前损失函数得出各个权值参数w的梯度值:
其中,L为交叉熵损失函数:
L(ylabel,p)=-[ylabellog(p)+(1-ylabel)log(1-p)]
其中,ylabel是数据的标签值,p是网络预测的概率值;
S2.3.2然后更新权值参数w的值:
其中,α=0.2是一个训练者定义的参数,称为学习率,wi是指第i个权值参数;
S2.3.3重复步骤S2.3.1-S2.3.2进行20轮迭训练。
梯度的方向就是L值减少的方向,整个训练过程的原理就像一个人不断向低处走,直到走到谷底,每步走的步长就是学习率的值。在本申请中,将学习率定义为0.2,并进行了20轮迭代(即反复训练了20次),最终的预测准确率达到95%以上。
为了解决同一只线虫出现多个待选区域的问题,通过非极大值抑制(NMS)算法对步骤S2中得到的目标区域进行筛选,筛选出包含线虫概率最大的待选区域确定为包含线虫的区域,筛选掉发生重叠的目标区域;非极大值抑制(NMS)算法原理是:对于那些距离太近的待选区域,认为是包含了同一条线虫,因此,只保留预测包含线虫概率最大的目标区域,而删除其他重叠的目标区域,所述非极大值抑制算法具体方法如下:
针对一个包含目标区域的列表,如图10所示,
L:[region1,region2,……regionk]
regioni为已经判定是线虫的目标区域,设一共有k个,
1)锁定其中一个region,然后向后遍历其它所有的region。
2)计算该region与其它region的距离distance,
若distance<预先设定的阈值D1,则认为该目标区域发生重叠,distance是两个目
标区域的中心点(x1,y1),(x2,y2)的坐标距离:
distance=|x1-x2|+|y1-y2|
所述阈值D1与所述生成待选框的边长width相同;
3)针对所有重叠的目标区域,统计其预测包含线虫的概率值,保留概率值最大的目标区域,该目标区域为确定包含线虫的区域,同时删除其他重叠的目标区域。
4)处理完当前region后,就锁定列表中的下一个region;
5)重复步骤1)-步骤4),直至处理完所有的region,筛选掉所有发生重叠的目标区域。
使用NMS算法处理后的医学图像如图8所示,实现了对线虫区域的分割,每只线虫都被一个区域所包含。
S3像素分割:利用阈值分割法对每个确定包含线虫的区域进行二值化分割,并利用连通域算法计算连通域数量和面积,从而对线虫的密度情况进行判断。
阈值分割法是指根据阈值像素的取值,将整张医学图像的像素分割为两类:纯白和纯黑,实现了图像的前景(线虫)和背景(图像背景)的分割,从而确定了每个线虫的具体像素,进而判断出线虫密度等有价值的数据。
灰度直方图横轴为灰度级0-255,纵轴为在图像中每个像素值出现的次数,灰度直方图反应了各个像素值出现的频率情况。
在理想的情况下,假如背景都是纯白的,线虫都是纯黑的,那么图像中只有两个像素值(即背景和虫子的像素值),其它像素值出现的次数都为0,那么直方图会是两个尖峰,最佳分割阈值t取双峰中间的任一像素值即可。如图11所示,若对于一张具有四百个像素的图片(20*20),在理想情况下,线虫与背景完全分开。若线虫占据100个像素,像素值P1,背景占据300个像素值,像素值为P2。
然而,在实际情况中,由于线虫或背景的像素值是在一定范围内分布的,以及其它的干扰因素,灰度直方图的尖峰会向两边塌陷,如图12所示,若对于一张具有四百个像素的图片(20*20),在实际情况下,尖峰会向两侧“塌陷”。线虫所在区域共同占据100个像素,像素值范围为P1-T/2,P1+T/2,背景区域同理,T是线虫图像占据的像素频域宽度,即占据的像素值的个数。此时的最佳分割阈值t应该取两个尖峰中间的最低谷,在一些情况下,甚至两端会发生混叠,图中,第一个峰会比第二个峰小很多,这是因为线虫的面积在整张图中只占很小一部分,此时取双峰中间的最低谷作为最佳分割阈值t,该阈值t刚好将前景和背景所在的像素分割开。如图13所示,观察该阈值t,其特征是“处于两峰之间”,最佳分割阈值t通过以下公式得出:
令h(t)为灰度直方图函数,则t取0-255的像素值,h(t)为该像素值在图像中出现的次数;
令:
使得g(i)取得最大值时的自变量i值即为最佳分割阈值t,即:
t=i→maxg(i)
其中,l为步长,l=10。
在实际处理中,l为卷积步长,即山峰“塌陷”的长度,l=10,即认为前后景像素值塌陷的区域在20个像素值以内。
线虫图像中大于最佳分割阈值t的像素为纯白,小于最佳分割阈值t像素为纯黑,从而识别出线虫并判断线虫的密度情况,并将识别结果发送至可视化用户界面,用户便可清晰的了解到线虫的分布情况。
如图14所示,为一个实际应用的例子,是一张包含有两只线虫的典型区域。
该区域的灰度直方图显示为图15所示,通过公式(1)得出最佳分割阈值t,并对图像进行像素分割(大于最佳分割阈值t的像素为纯白,小于最佳分割阈值t的像素为纯黑),分割结果如图16所示。
经过多次测试证明,本发明最佳阈值分割方法对于目标区域的像素分割效果远远优于传统的OTSU或自适应方法,此方法同样适用于其它的简单前后景分割场景,尤其是物体形态比较简单,且只占图像一小部分时。
Claims (7)
1.一种基于深度学习与阈值分割的线虫识别方法,其特征在于,包括以下步骤:
S1生成待选区域:从用户接口接收待处理医学图像及参数,利用Harris算法从待处理医学图像中提取线虫特征点,并在特征点周围以固定边长生成待选区域;
S2用训练好的神经网络,对步骤S1中待选区域进行预测,根据神经网络输出的概率值,判断出其中确定包含虫子的区域,输出的线虫概率值大于50%,则认为该待选区域是确定包含了线虫的区域,该区域为目标区域;
S3像素分割:利用阈值分割法对每个确定包含线虫的区域进行二值化分割,并利用连通域算法计算连通域数量和面积,从而对线虫的密度情况进行判断。
2.根据权利要求1所述的一种基于深度学习与阈值分割的线虫识别方法,其特征在于,步骤S1具体方法如下:
S1.1使用者输入一张包含有大量线虫的医学图像,并选择输入可调节的参数;
S1.2将输入的医学图像转化为灰度图,然后计算其Harris响应值R,通过以下方法得出Harris响应值R:
S1.2.1计算医学图像中每个像素在水平和垂直方向上的偏导数IX,Iy;
S1.2.2对医学图像进行高斯滤波,离散二维零均值高斯函数为:
其中,x,y为像素坐标值,x,y取非负整数;σ为标准差,是决定高斯分布的参数;
S1.2.3计算医学图像中每个像素的Harris响应值R:
R={Ix 2×Iy 2-(IxIy)2}-k{Ix 2+Iy 2}2
其中,Ix,Iy分别为该像素在×和Y轴方向上的偏导数:k是常数,0.04≤k≤0.06;
令医学图像函数为P(x,y):(x,y)为像素坐标,P(x,y)为像素值;
则对于任一像素值P0(x0,y0),该像素的Ix,Iy为:
Ix=P0(x0+1,y0)-P0(x0,y0)
Iy=P0(x0,y0+1)-P0(x0,y0)
S1.2.4将各像素的Harris响应值R与预先设定的阈值D相比,将R>D的像素,作为响应特征点,将该阈值D设置为响应值R中最大值Rmax的0.001-0.01倍,即0.001Rmax≤D≤0.01Rmax;
S1.2.5根据响应特征点,以设置的边长width作为固定边长,生成待选区域,具体如下:
令医学图像的像素矩阵为M,某响应特征点坐标为(x,y),固定边长为width,则生成的待选区域Region为:
3.根据权利要求2所述的一种基于深度学习与阈值分割的线虫识别方法,其特征在于,步骤S2的神经网络为改进后的Lenet-5卷积神经网络,使用以下方法对的Lenet-5卷积神经网络进行改进、训练和预测:
S2.1将Lenet-5神经网络输出层神经元改进为两个,即两个输出值,其中一个输出值用来判断判断图像是否为是线虫,另一个输出值用于预测为干扰背景的概率值;
S2.2采集线虫医学图像,并依次对该图像进行灰度重映射、图像增强、归一化、格式转化处理;
S2.3将步骤S2.2处理后的医学图像输入到步骤S2.1的神经网络中,利用梯度下降方法对步骤S2.1中改进后的Lenet-5卷积神经网络进行训练;
S2.4利用经步骤S2.3训练后的神经网络,对步骤S1.2.4中生成的所有Region进行预测,将预测包含线虫的概率大于50%的区域,确定为包含线虫的区域,该区域为目标区域。
5.根据权利要求1所述的一种基于深度学习与阈值分割的线虫识别方法,其特征在于,通过非极大值抑制算法对步骤S2中得到的目标区域进行筛选,筛选出包含线虫概率最大的待选区域确定为包含线虫的区域,筛选掉发生重叠的目标区域,所述非极大值抑制算法具体方法如下:
针对包含所有目标区域的列表
L:[region1,region2,……regionk]
regioni为目标区域,设一共有k个,
1)锁定其中一个region,然后向后遍历其它所有的region;
2)计算该region与其它region的距离distance:
若distance<预先设定的阈值D1,则认为该目标区域发生重叠,distance是两个目标区域的中心点(x1,y1),(x2,y2)的坐标距离:
distance=|x1-x2|+|y1-y2|
所述阈值D1与所述生成待选框的边长width相同;
3)针对所有重叠的目标区域,统计其预测包含线虫的概率值,保留概率值最大的目标区域,该目标区域为确定包含线虫的区域,同时删除其他重叠的目标区域;
4)处理完当前region后,就锁定列表中的下一个region;
5)重复步骤1)-步骤4),直至处理完所有的region,筛选掉所有发生重叠的目标区域。
6.根据权利要求1所述的一种基于深度学习与阈值分割的线虫识别方法,其特征在于,步骤S3的阈值分割法为基于灰度直方图梯度的方法,具体步骤如下:
灰度直方图横轴为灰度级0-255,纵轴为在医学图像中每个像素值出现的次数,利用灰度直方图确定最佳分割阈值t,将整张医学图像的像素分割为两类:纯白和纯黑;
大于最佳分割阈值t的像素为纯白,小于最佳分割阈值t的像素为纯黑,最佳分割阈值t通过以下公式得出:
令h(t)为灰度直方图函数,则t取0-255的像素值,h(t)为该像素值在图像中出现的次数;
令:
使得g(i)取得最大值时的自变量i值即为最佳分割阈值t
即:
t=i→maxg(i)
其中,l为步长,l=10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110678930.2A CN113420636A (zh) | 2021-06-18 | 2021-06-18 | 一种基于深度学习与阈值分割的线虫识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110678930.2A CN113420636A (zh) | 2021-06-18 | 2021-06-18 | 一种基于深度学习与阈值分割的线虫识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113420636A true CN113420636A (zh) | 2021-09-21 |
Family
ID=77789075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110678930.2A Pending CN113420636A (zh) | 2021-06-18 | 2021-06-18 | 一种基于深度学习与阈值分割的线虫识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420636A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437634A (zh) * | 2023-12-21 | 2024-01-23 | 中国医学科学院北京协和医院 | 一种尿沉渣检测影像有形部分的识别分割方法 |
WO2024124701A1 (zh) * | 2022-12-16 | 2024-06-20 | 深圳理工大学(筹) | 一种线虫身体弯曲行为的识别和计数方法及相关设备 |
-
2021
- 2021-06-18 CN CN202110678930.2A patent/CN113420636A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024124701A1 (zh) * | 2022-12-16 | 2024-06-20 | 深圳理工大学(筹) | 一种线虫身体弯曲行为的识别和计数方法及相关设备 |
CN117437634A (zh) * | 2023-12-21 | 2024-01-23 | 中国医学科学院北京协和医院 | 一种尿沉渣检测影像有形部分的识别分割方法 |
CN117437634B (zh) * | 2023-12-21 | 2024-03-08 | 中国医学科学院北京协和医院 | 一种尿沉渣检测影像有形部分的识别分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107316307B (zh) | 一种基于深度卷积神经网络的中医舌图像自动分割方法 | |
Kumar et al. | Review on image segmentation techniques | |
CN111524137B (zh) | 基于图像识别的细胞识别计数方法、装置和计算机设备 | |
Prasetyo et al. | A comparison of yolo and mask r-cnn for segmenting head and tail of fish | |
Tomakova et al. | Automatic fluorography segmentation method based on histogram of brightness submission in sliding window | |
CN110717896A (zh) | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 | |
CN113420636A (zh) | 一种基于深度学习与阈值分割的线虫识别方法 | |
CN106373146A (zh) | 一种基于模糊学习的目标跟踪方法 | |
CN112258525A (zh) | 一种基于鸟类高帧频序列图像丰度统计和种群识别算法 | |
CN114299567B (zh) | 模型训练、活体检测方法、电子设备及存储介质 | |
KR101690050B1 (ko) | 지능형 영상보안 시스템 및 객체 추적 방법 | |
CN104766068A (zh) | 一种多规则融合的随机游走舌像提取方法 | |
Gurunathan et al. | Plant leaf diseases detection using KNN classifier | |
CN107704864B (zh) | 基于图像对象性语义检测的显著目标检测方法 | |
Sukmana et al. | Blight segmentation on corn crop leaf using connected component extraction and CIELAB color space transformation | |
Rungruangbaiyok et al. | Chromosome image classification using a two-step probabilistic neural network. | |
CN114170224B (zh) | 应用生成式染色归一化的细胞病理分类的系统及方法 | |
Huang et al. | Image segmentation using edge detection and region distribution | |
CN112949634B (zh) | 一种铁路接触网鸟窝检测方法 | |
CN114255203B (zh) | 一种鱼苗数量估计方法及系统 | |
Ambata et al. | Foreground background separation and tracking | |
Zhou et al. | Wireless capsule endoscopy video automatic segmentation | |
DE69901565T2 (de) | Automatische maskierung von objekten in bildern | |
KR102436351B1 (ko) | Ct 스캔 영상에서 딥러닝에 기반한 간 종양 검출 방법 및 장치 | |
del Fresno et al. | Application of color image segmentation to estrus detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |