CN109934813A - 目标对象的识别方法和装置 - Google Patents
目标对象的识别方法和装置 Download PDFInfo
- Publication number
- CN109934813A CN109934813A CN201910176772.3A CN201910176772A CN109934813A CN 109934813 A CN109934813 A CN 109934813A CN 201910176772 A CN201910176772 A CN 201910176772A CN 109934813 A CN109934813 A CN 109934813A
- Authority
- CN
- China
- Prior art keywords
- target object
- image
- boundary
- model
- obtains
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000003709 image segmentation Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 33
- 238000013527 convolutional neural network Methods 0.000 claims description 31
- 238000004422 calculation algorithm Methods 0.000 claims description 24
- 238000012014 optical coherence tomography Methods 0.000 claims description 22
- 238000003708 edge detection Methods 0.000 claims description 13
- 230000003213 activating effect Effects 0.000 claims description 4
- 241000406668 Loxodonta cyclotis Species 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 abstract 1
- 210000000695 crystalline len Anatomy 0.000 description 48
- 230000011218 segmentation Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 208000002177 Cataract Diseases 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 3
- 230000001054 cortical effect Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 208000020816 lung neoplasm Diseases 0.000 description 2
- 208000037841 lung tumor Diseases 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 235000004443 Ricinus communis Nutrition 0.000 description 1
- 238000012152 algorithmic method Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 208000021921 corneal disease Diseases 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000004153 renaturation Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种目标对象的识别方法和装置。其中,该方法包括:获取包含目标对象的第一图像;利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界;利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界。本发明解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
Description
技术领域
本发明涉及图像识别领域,具体而言,涉及一种目标对象的识别方法和装置。
背景技术
在医疗领域的图像识别中,前段光学相干断层扫描(Anterior segment opticalcoherence tomography,AS-OCT)用来辅助诊断许多眼科疾病,例如角膜疾病、白内障和青光眼等,是一种非侵入式无伤害的拍摄方式。晶状体,是眼球的主要屈光结构,当晶状体出现浑浊现象时(密度增加),会引起视力障碍,导致白内障产生。图1a示出了晶状体结构图,图1b示出了AS-OCT眼底图,其中白色方框所在区域为晶状体区域。晶状体密度是衡量白内障等疾病严重程度的重要指标。目前基于AS-OCT影像的晶状体结构分割大多都是手动进行,并且具有可重复性差,人工成本较高等缺陷。AS-OCT图像中晶状体结构边界之间模糊,导致全自动分割困难,尤其是核(nucleus)和皮质(cortex)的边界。而且,在白内障患者眼中拍摄的AS-OCT图像,边界会变得更加模糊。
针对现有技术中目标对象的识别准确率较低,且可重复性较差的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种目标对象的识别方法和装置,以至少解决现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
根据本发明实施例的一个方面,提供了一种目标对象的识别方法,包括:获取包含目标对象的第一图像;利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界;利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界。
进一步地,U形全卷积神经网络模型包括:编码模型和解码模型,编码模型包括:多个第一网络块,第一网络块包括:依次连接的至少两个第一卷积层,第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的最后一个第一卷积层与下一个第一网络块中的第一个第一卷积层连接;解码模型包括:多个第二网络块和输出层,第一网络块和第二网络块的数量相同,第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,级联层与对应的第一网络块和上一个第二网络块中的最后一个第二卷积层连接,级联层与对应的第一网络块采用复制和合并的跳跃连接方式连接,旁侧输出层采用交叉熵损失函数,输出层与多个第二网络块的旁侧输出层连接。
进一步地,池化操作包括如下之一:最大池化操作和均值池操作。
进一步地,活动轮廓模型包括:形状模型和灰度模型,其中,利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界,包括:从第一边界上提取出预设数量的第一关键点;利用形状模型和灰度模型对第一关键点进行处理,得到第二边界。
进一步地,上述方法还包括:获取多个训练集,其中,每个训练集包括:训练图像和对应的标签;获取训练图像中目标对象的第三边界;从第三边界上提取出预设数量的第二关键点;利用第二关键点和对应的标签分别对预设形状模型和预设灰度模型进行训练,得到形状模型和灰度模型。
进一步地,获取训练图像中目标对象的第三边界,包括:利用预设尺寸的卷积滑窗对训练图像进行滤波,得到训练图像中目标对象的第三边界。
进一步地,在利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界之前,上述方法还包括:利用边缘检测算法对第一图像进行处理,得到目标对象所在区域的第二图像;利用U形全卷积神经网络模型对第二图像进行图像分割,得到第一边界。
进一步地,利用边缘检测算法对第一图像进行处理,得到目标对象所在区域的第二图像,包括:利用多级边缘检测算法对第一图像进行处理,得到第二图像。
进一步地,获取包含目标对象的第一图像,包括:利用前段光学相干断层扫描技术对目标对象进行扫描,得到第一图像。
进一步地,目标对象为晶状体核。
根据本发明实施例的另一方面,还提供了一种目标对象的识别装置,包括:获取模块,用于获取包含目标对象的第一图像;图像分割模块,用于利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界;处理模块,用于利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界。
根据本发明实施例的另一方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的目标对象的识别方法。
根据本发明实施例的另一方面,还提供了一种处理器,处理器用于运行程序,其中,程序运行时执行上述的目标对象的识别方法。
在本发明实施例中,在获取到包含目标对象的第一图像之后,可以首先利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界,然后利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界,也即得到最终的分割结果。容易注意到的是,通过结合U形全卷积神经网络模型和ASM算法进行晶状体结构分割,实现了基于深度学习全自动晶状体结构分割,达到了有效提高晶状体结构分割的准确性和可重复性的技术效果,进而解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1a是根据现有技术的一种晶状体结构图的示意图;
图1b是根据现有技术的一种AS-OCT眼底图的示意图;
图2是根据本发明实施例的一种目标对象的识别方法的流程图;
图3是根据本发明实施例的一种U-net网络的网络结构的示意图;
图4是根据本发明实施例的一种ASM算法的示意图;
图5a是根据本发明实施例的一种训练图像的形状以及平均形状的示意图;
图5b是根据本发明实施例的一种形状模型的示意图;
图6是根据本发明实施例的一种可选的目标对象的识别方法的流程图;以及
图7是根据本发明实施例的一种目标对象的识别装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种目标对象的识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图2是根据本发明实施例的一种目标对象的识别方法的流程图,如图2所示,该方法包括如下步骤:
步骤S202,获取包含目标对象的第一图像。
可选地,上述的目标对象可以是晶状体核。
具体地,上述的第一图像可以是AS-OCT眼底图,图像中包含有晶状体结构,由于晶状体核和皮质的边界之间模糊,可以通过对晶状体核和皮质的边界进行准确分割,实现对晶状体结构的准确分割,因此,可以确定目标对象为晶状体核。
步骤S204,利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界。
具体地,在医学图像分割领域中,目前基于深度学习图像分割算法发展迅速,尤其是U形全卷积神经网络模型,即U-net网络的出现,在肺结节、肿瘤和血管厚度分割等医学图像领域取得了较大的发展。因此,可以通过U-net网络作为AS-OCT图像中晶状体结构的初始轮廓的分割,确定晶状体核区域的边界。
需要说明的是,通过U-net网络对AS-OCT眼底图进行图像分割,不仅仅可以确定晶状体核区域的边界,还可以确定晶状体的角膜和皮质区域的边界。
步骤S206,利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界。
具体地,由于U-net网络分割出的边界不规则,尤其是晶状体核的分割,因此可以通过活动轮廓模型(active shape model,ASM)有效改善晶状体核区域粗糙的边界,得到最后晶状体不同结构的分割结果。
通过本发明上述实施例,在获取到包含目标对象的第一图像之后,可以首先利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界,然后利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界,也即得到最终的分割结果。容易注意到的是,通过结合U形全卷积神经网络模型和ASM算法进行晶状体结构分割,实现了基于深度学习全自动晶状体结构分割,达到了有效提高晶状体结构分割的准确性和可重复性的技术效果,进而解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
可选地,U形全卷积神经网络模型包括:编码模型和解码模型,编码模型包括:多个第一网络块,第一网络块包括:依次连接的至少两个第一卷积层,第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的最后一个第一卷积层与下一个第一网络块中的第一个第一卷积层连接;解码模型包括:多个第二网络块和输出层,第一网络块和第二网络块的数量相同,第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,级联层与对应的第一网络块和上一个第二网络块中的最后一个第二卷积层连接,级联层与对应的第一网络块采用复制和合并的跳跃连接方式连接,旁侧输出层采用交叉熵损失函数,输出层与多个第二网络块的旁侧输出层连接。
可选地,上述的池化操作可以包括如下之一:最大池化操作和均值池操作。
具体地,由于AS-OCT眼底图的尺寸较大,为了提高图像分割准确性和可重复性,可以对现有的U-net网络进行改进,改进点主要在于:输入图像的尺寸较大,例如,输入尺寸为1024*1024,也即,第一图像的尺寸为1024*1024;卷积层使用的卷积核较小,例如,可以是3*3;整个U-net网络的层次较多,例如,整个网络的层次为6层,也即,第一网络块和第二网络块的数量为6个。
在本发明实施例中,每个卷积层可以使用激活函数(Relu)和最大池化操作。
U-net网络的网络结构如图3所示,网络结构包括编码模型(如图3中左侧所示)和解码模型(如图3中右侧所示),VGG19(Visual Geometry Group Network)可以作为网络的编码部分,包括六个网络块(即上述的第一网络块),每个网络块包含两到三个卷积层,每一个卷积层都会使用激活函数Relu(修正线性单元,rectified linear unit)和用于下采样的步长为2的2*2的最大池化,卷积层的卷积核为3*3,可以表示为Conv<3X3>with Relu,有利于细节特征的表达,测试速度相对于更深的残差网络能够有效保障,在每一个下采样的步骤中,特征通道数量都加倍;解码模块也包含六个网络块(即上述的第二网络块),每个网络块包含一个级联层,来自相应的特征层(即上述的对应的第一网络块)和上采样(up-sample)(即上述的对应的第二卷积层),系数为2,之后使用两个卷积层和旁侧输出层side-output,卷积层使用3*3的卷积核进行卷积运算,且使用激活函数(Relu)。编码模型和解码模型可以使用复制和合并(Copy and Merge)的跳跃连接方式,可以有效利用不同层的特征,保障更好的分割效果;旁侧输出层side-output连接能有效避免层数过多导致的过拟合问题,使用的是1*1卷积核(conv<1x1>),不同层的side-optput输出使用的损失函数为交叉熵损失(Cross Entropy Loss)函数,用梯度下降求解时,交叉熵损失有更好的收敛特性;最后的输出层可以将所有损失求和作为最终的损失。
可选地,活动轮廓模型包括:形状模型和灰度模型,其中,步骤S206,利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界,包括:从第一边界上提取出预设数量的第一关键点;利用形状模型和灰度模型对第一关键点进行处理,得到第二边界。
具体地,由于U形全卷积神经网络输出的结果边界相对粗糙,并且不满足结构特性,导致有一部分晶状体核区域被错误分类为皮质区域,为了解决这个问题,使用ASM算法改善晶状体核边缘的粗糙分割,在满足灰度特征的同时也保证结构特性。在本发明实施例中,上述的预设数量可以是60,例如,如图4所示,图4右侧示出了ASM算法的实现流程,在输入测试图像之后,使用U-net网络预测一个粗糙的分割区域的结果,通过选取边界60个关键点,之后使用ASM算法调整边界的不足,得到最终的预测结果。
可选地,该方法还包括:获取多个训练集,其中,每个训练集包括:训练图像和对应的标签;获取训练图像中目标对象的第三边界;从第三边界上提取出预设数量的第二关键点;利用第二关键点和对应的标签分别对预设形状模型和预设灰度模型进行训练,得到形状模型和灰度模型。
具体地,上述的训练集的数量为160。在本发明实施例中以晶状体核下边界为例进行说明。如图4所示,图4左侧示出了ASM的训练流程,首先输入160张训练图像和对应标签,在获取到晶状体核区域下边界之后,可以通过对下边界提取60个关键点,学习形状模型和灰度模型,最后保存ASM模型,例如,图5a示出了160张图像的形状(如图中黑色曲线所示)以及平均形状(如图5a中的白色曲线所示),图5b示出了学习到的形状模型。
可选地,获取训练图像中目标对象的第三边界,包括:利用预设尺寸的卷积滑窗对训练图像进行滤波,得到训练图像中目标对象的第三边界。
具体地,由于U形全卷积神经网络中卷积核为3*3,因此,上述的预设尺寸也可以是3*3。在输入160张图像和对应标签,对图像使用3*3的卷积滑窗平滑滤波,裁剪出图像中晶状体核区域下边界作为感兴趣区域,对下边界提取60个关键点进行训练形状模型和灰度模型。
可选地,在利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界之前,该方法还包括:利用边缘检测算法对第一图像进行处理,得到目标对象所在区域的第二图像;利用U形全卷积神经网络模型对第二图像进行图像分割,得到第一边界。
具体地,为了减少多余的干扰信息,可以使用边缘检测算法提取到晶状体区域图像,得到第二图像,图像大小为1024*1024,并将提取到的图像输入至U形全卷积神经网络进行图像分割。
可选地,利用边缘检测算法对第一图像进行处理,得到目标对象所在区域的第二图像,包括:利用多级边缘检测算法对第一图像进行处理,得到第二图像。
具体地,可以使用多级边缘检测算法canny算子提取晶状体区域作为预处理。
可选地,获取包含目标对象的第一图像,包括:利用前段光学相干断层扫描技术对目标对象进行扫描,得到第一图像。
具体地,可以通过AS-OCT技术对晶状体进行拍摄,得到AS-OCT眼底图(即上述的第一图像)。
图6是根据本发明实施例的一种可选的目标对象的识别方法的流程图,如图6所示,以晶状体核为例进行说明,可以在输入AS-OCT眼底图图像之后,使用canny算子提取晶状体区域实现图像预处理,然后使用U-net网络预测,也即,使用U形全卷积神经网络分割晶状体,由于U形全卷积神经网络分割出的边界不规则,尤其是晶状体核的分割,因此使用ASM模型预测,也即,使用ASM算法改善晶状体核区域粗糙的边界,获得预测结果,也即最后晶状体不同结构的分割结果。
通过上述方案,本发明实施例提供了一种基于深度学习全自动晶状体结构分割方法,使用U形全卷积神经网络分割晶状体结构,网络能够很好的进行训练和学习数据中的特征,而且,根据晶状体核的结构特性结合ASM算法方法优化结果,使分割结果接近真实的物理结构,抗干扰能力强,具有较好的泛化能力。
实施例2
根据本发明实施例,提供了一种目标对象的识别装置的实施例。
图7是根据本发明实施例的一种目标对象的识别装置的示意图,如图7所示,该装置包括:获取模块72、图像分割模块74和处理模块76。
其中,获取模块72用于获取包含目标对象的第一图像;图像分割模块74用于利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界;处理模块76用于利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界。
可选地,上述的目标对象可以是晶状体核。
具体地,上述的第一图像可以是AS-OCT眼底图,图像中包含有晶状体结构,由于晶状体核和皮质的边界之间模糊,可以通过对晶状体核和皮质的边界进行准确分割,实现对晶状体结构的准确分割,因此,可以确定目标对象为晶状体核。
在医学图像分割领域中,目前基于深度学习图像分割算法发展迅速,尤其是U形全卷积神经网络模型,即U-net网络的出现,在肺结节、肿瘤和血管厚度分割等医学图像领域取得了较大的发展。因此,可以通过U-net网络作为AS-OCT图像中晶状体结构的初始轮廓的分割,确定晶状体核区域的边界。
需要说明的是,通过U-net网络对AS-OCT眼底图进行图像分割,不仅仅可以确定晶状体核区域的边界,还可以确定晶状体的角膜和皮质区域的边界。
由于U-net网络分割出的边界不规则,尤其是晶状体核的分割,因此可以通过活动轮廓模型(active shape model,ASM)有效改善晶状体核区域粗糙的边界,得到最后晶状体不同结构的分割结果。
通过本发明上述实施例,在通过获取模块获取到包含目标对象的第一图像之后,可以首先通过图像分割模块利用U形全卷积神经网络模型对第一图像进行图像分割,得到目标对象的第一边界,然后通过处理模块利用活动轮廓模型对目标对象的第一边界进行处理,得到目标对象的第二边界,也即得到最终的分割结果。容易注意到的是,通过结合U形全卷积神经网络模型和ASM算法进行晶状体结构分割,实现了基于深度学习全自动晶状体结构分割,达到了有效提高晶状体结构分割的准确性和可重复性的技术效果,进而解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
可选地,U形全卷积神经网络模型包括:编码模型和解码模型,编码模型包括:多个第一网络块,第一网络块包括:依次连接的至少两个第一卷积层,第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的最后一个第一卷积层与下一个第一网络块中的第一个第一卷积层连接;解码模型包括:多个第二网络块和输出层,第一网络块和第二网络块的数量相同,第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,级联层与对应的第一网络块和上一个第二网络块中的最后一个第二卷积层连接,级联层与对应的第一网络块采用复制和合并的跳跃连接方式连接,旁侧输出层采用交叉熵损失函数,输出层与多个第二网络块的旁侧输出层连接。
可选地,上述的池化操作可以包括如下之一:最大池化操作和均值池操作。
可选地,活动轮廓模型包括:形状模型和灰度模型,其中,处理模块包括:提取单元和处理单元。
其中,提取单元用于从第一边界上提取出预设数量的第一关键点;处理单元用于利用形状模型和灰度模型对第一关键点进行处理,得到第二边界。
可选地,该装置还包括:第一获取单元、第二获取单元和训练单元。
其中,第一获取单元用于获取多个训练集,其中,每个训练集包括:训练图像和对应的标签;第二获取单元用于获取训练图像中目标对象的第三边界;从第三边界上提取出预设数量的第二关键点;训练单元用于利用第二关键点和对应的标签分别对预设形状模型和预设灰度模型进行训练,得到形状模型和灰度模型。
可选地,第二获取单元还用于利用预设尺寸的卷积滑窗对训练图像进行滤波,得到训练图像中目标对象的第三边界。
可选地,该装置还包括:预处理模块。
其中,预处理模块用于利用边缘检测算法对第一图像进行处理,得到目标对象所在区域的第二图像;图像分割模块用于利用U形全卷积神经网络模型对第二图像进行图像分割,得到第一边界。
可选地,预处理模块还用于利用多级边缘检测算法对第一图像进行处理,得到第二图像。
可选地,获取模块包括:扫描单元。
其中,扫描单元用于利用前段光学相干断层扫描技术对目标对象进行扫描,得到第一图像。
实施例3
根据本发明实施例,提供了一种存储介质的实施例,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述实施例1中的目标对象的识别方法。
实施例4
根据本发明实施例,提供了一种处理器的实施例,处理器用于运行程序,其中,程序运行时执行上述实施例1中的目标对象的识别方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (13)
1.一种目标对象的识别方法,其特征在于,包括:
获取包含目标对象的第一图像;
利用U形全卷积神经网络模型对所述第一图像进行图像分割,得到所述目标对象的第一边界;
利用活动轮廓模型对所述目标对象的第一边界进行处理,得到所述目标对象的第二边界。
2.根据权利要求1所述的方法,其特征在于,所述U形全卷积神经网络模型包括:编码模型和解码模型,
所述编码模型包括:多个第一网络块,所述第一网络块包括:依次连接的至少两个第一卷积层,所述第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的最后一个第一卷积层与下一个第一网络块中的第一个第一卷积层连接;
所述解码模型包括:多个第二网络块和输出层,所述第一网络块和所述第二网络块的数量相同,所述第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,所述级联层与对应的第一网络块和上一个第二网络块中的最后一个第二卷积层连接,所述级联层与所述对应的第一网络块采用复制和合并的跳跃连接方式连接,所述旁侧输出层采用交叉熵损失函数,所述输出层与所述多个第二网络块的旁侧输出层连接。
3.根据权利要求2所述的方法,其特征在于,所述池化操作包括如下之一:最大池化操作和均值池操作。
4.根据权利要求1所述的方法,其特征在于,活动轮廓模型包括:形状模型和灰度模型,其中,利用活动轮廓模型对所述目标对象的第一边界进行处理,得到所述目标对象的第二边界,包括:
从所述第一边界上提取出预设数量的第一关键点;
利用所述形状模型和所述灰度模型对所述第一关键点进行处理,得到所述第二边界。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取多个训练集,其中,每个训练集包括:训练图像和对应的标签;
获取所述训练图像中所述目标对象的第三边界;
从所述第三边界上提取出所述预设数量的第二关键点;
利用所述第二关键点和对应的标签分别对预设形状模型和预设灰度模型进行训练,得到所述形状模型和所述灰度模型。
6.根据权利要求5所述的方法,其特征在于,获取所述训练图像中所述目标对象的第三边界,包括:
利用预设尺寸的卷积滑窗对所述训练图像进行滤波,得到所述训练图像中所述目标对象的第三边界。
7.根据权利要求1所述的方法,其特征在于,在利用U形全卷积神经网络模型对所述第一图像进行图像分割,得到所述目标对象的第一边界之前,所述方法还包括:
利用边缘检测算法对所述第一图像进行处理,得到所述目标对象所在区域的第二图像;
利用所述U形全卷积神经网络模型对所述第二图像进行图像分割,得到所述第一边界。
8.根据权利要求7所述的方法,其特征在于,利用边缘检测算法对所述第一图像进行处理,得到所述目标对象所在区域的第二图像,包括:
利用多级边缘检测算法对所述第一图像进行处理,得到所述第二图像。
9.根据权利要求1所述的方法,其特征在于,获取包含目标对象的第一图像,包括:
利用前段光学相干断层扫描技术对所述目标对象进行扫描,得到所述第一图像。
10.根据权利要求1所述的方法,其特征在于,所述目标对象为晶状体核。
11.一种目标对象的识别装置,其特征在于,包括:
获取模块,用于获取包含目标对象的第一图像;
图像分割模块,用于利用U形全卷积神经网络模型对所述第一图像进行图像分割,得到所述目标对象的第一边界;
处理模块,用于利用活动轮廓模型对所述目标对象的第一边界进行处理,得到所述目标对象的第二边界。
12.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至10中任意一项所述的目标对象的识别方法。
13.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至10中任意一项所述的目标对象的识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910176772.3A CN109934813A (zh) | 2019-03-08 | 2019-03-08 | 目标对象的识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910176772.3A CN109934813A (zh) | 2019-03-08 | 2019-03-08 | 目标对象的识别方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109934813A true CN109934813A (zh) | 2019-06-25 |
Family
ID=66986445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910176772.3A Pending CN109934813A (zh) | 2019-03-08 | 2019-03-08 | 目标对象的识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934813A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443820A (zh) * | 2019-07-03 | 2019-11-12 | 平安科技(深圳)有限公司 | 一种图像处理方法以及装置 |
CN114913350A (zh) * | 2022-04-19 | 2022-08-16 | 深圳市东信时代信息技术有限公司 | 素材查重方法、装置、设备及存储介质 |
CN115712363A (zh) * | 2022-11-21 | 2023-02-24 | 北京中科睿医信息科技有限公司 | 界面色彩显示方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997046929A2 (en) * | 1996-06-04 | 1997-12-11 | Werbos Paul J | 3-brain architecture for an intelligent decision and control system |
CN101299267A (zh) * | 2008-07-02 | 2008-11-05 | 北京中星微电子有限公司 | 一种人脸图像处理方法及装置 |
CN103383700A (zh) * | 2013-06-26 | 2013-11-06 | 西安电子科技大学 | 基于边缘方向差直方图的图像检索方法 |
CN106572304A (zh) * | 2016-11-02 | 2017-04-19 | 西安电子科技大学 | 基于眨眼检测的智能手机拍照系统和方法 |
CN108230287A (zh) * | 2016-12-21 | 2018-06-29 | 中国移动通信有限公司研究院 | 一种眼前节图像的晶体区域的检测方法及装置 |
CN108229263A (zh) * | 2016-12-22 | 2018-06-29 | 深圳光启合众科技有限公司 | 目标对象的识别方法和装置、机器人 |
-
2019
- 2019-03-08 CN CN201910176772.3A patent/CN109934813A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997046929A2 (en) * | 1996-06-04 | 1997-12-11 | Werbos Paul J | 3-brain architecture for an intelligent decision and control system |
CN101299267A (zh) * | 2008-07-02 | 2008-11-05 | 北京中星微电子有限公司 | 一种人脸图像处理方法及装置 |
CN103383700A (zh) * | 2013-06-26 | 2013-11-06 | 西安电子科技大学 | 基于边缘方向差直方图的图像检索方法 |
CN106572304A (zh) * | 2016-11-02 | 2017-04-19 | 西安电子科技大学 | 基于眨眼检测的智能手机拍照系统和方法 |
CN108230287A (zh) * | 2016-12-21 | 2018-06-29 | 中国移动通信有限公司研究院 | 一种眼前节图像的晶体区域的检测方法及装置 |
CN108229263A (zh) * | 2016-12-22 | 2018-06-29 | 深圳光启合众科技有限公司 | 目标对象的识别方法和装置、机器人 |
Non-Patent Citations (2)
Title |
---|
PENGSHUAI YIN ET AL: "Automatic Segmentation o f Cortex and Nucleus in Anterior Segment OCT Images", 《COMPUTATIONAL PATHOLOGY AND OPHTHALMIC MEDICAL IMAGE ANALYSIS》 * |
徐光柱等著: "《实用性目标检测与跟踪算法原理与应用》", 30 June 2015, 国防工业出版社 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443820A (zh) * | 2019-07-03 | 2019-11-12 | 平安科技(深圳)有限公司 | 一种图像处理方法以及装置 |
WO2021000495A1 (zh) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | 一种图像处理方法以及装置 |
CN110443820B (zh) * | 2019-07-03 | 2023-07-14 | 平安科技(深圳)有限公司 | 一种图像处理方法以及装置 |
CN114913350A (zh) * | 2022-04-19 | 2022-08-16 | 深圳市东信时代信息技术有限公司 | 素材查重方法、装置、设备及存储介质 |
CN114913350B (zh) * | 2022-04-19 | 2023-04-07 | 深圳市东信时代信息技术有限公司 | 素材查重方法、装置、设备及存储介质 |
CN115712363A (zh) * | 2022-11-21 | 2023-02-24 | 北京中科睿医信息科技有限公司 | 界面色彩显示方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Adegun et al. | Deep learning-based system for automatic melanoma detection | |
Gecer et al. | Detection and classification of cancer in whole slide breast histopathology images using deep convolutional networks | |
US10223610B1 (en) | System and method for detection and classification of findings in images | |
Quellec et al. | Three-dimensional analysis of retinal layer texture: identification of fluid-filled regions in SD-OCT of the macula | |
US20230360313A1 (en) | Autonomous level identification of anatomical bony structures on 3d medical imagery | |
US9317761B2 (en) | Method and an apparatus for determining vein patterns from a colour image | |
US10878574B2 (en) | 3D quantitative analysis of retinal layers with deep learning | |
CN107506797A (zh) | 一种基于深度神经网络和多模态影像阿尔兹海默病分类方法 | |
CN109215033A (zh) | 图像分割的方法及系统 | |
CN109919932A (zh) | 目标对象的识别方法和装置 | |
Jan et al. | Retinal image analysis aimed at blood vessel tree segmentation and early detection of neural-layer deterioration | |
CN109934813A (zh) | 目标对象的识别方法和装置 | |
CN109919954A (zh) | 目标对象的识别方法和装置 | |
CN109919098A (zh) | 目标对象的识别方法和装置 | |
Alkassar et al. | Automatic brain tumour segmentation using fully convolution network and transfer learning | |
Tan et al. | Retinal layer segmentation in OCT images with boundary regression and feature polarization | |
CN113450305B (zh) | 医疗图像的处理方法、系统、设备及可读存储介质 | |
Upadhyay et al. | Wavelet based fine-to-coarse retinal blood vessel extraction using U-net model | |
US11302006B2 (en) | 3D quantitative analysis with deep learning | |
George et al. | Oct segmentation using convolutional neural network | |
Mano | Contrast Enhanced Superpixel Based Segmentation Of Retinal Images | |
Kushwaha et al. | Classifying diabetic retinopathy images using induced deep region of interest extraction | |
Banerjee et al. | Optimized Deep Learning technique for Brain Tumor Segmenting, Contouring, and Detection | |
Manikandan et al. | An efficient detection and segmentation of brain tumor using robust active shape model | |
Li et al. | Research on Lung Tumor Cell Image Processing and Identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190625 |
|
RJ01 | Rejection of invention patent application after publication |