CN109919932A - 目标对象的识别方法和装置 - Google Patents

目标对象的识别方法和装置 Download PDF

Info

Publication number
CN109919932A
CN109919932A CN201910177218.7A CN201910177218A CN109919932A CN 109919932 A CN109919932 A CN 109919932A CN 201910177218 A CN201910177218 A CN 201910177218A CN 109919932 A CN109919932 A CN 109919932A
Authority
CN
China
Prior art keywords
region
target object
image
obtains
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910177218.7A
Other languages
English (en)
Inventor
童云飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Original Assignee
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shiyuan Electronics Thecnology Co Ltd filed Critical Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority to CN201910177218.7A priority Critical patent/CN109919932A/zh
Publication of CN109919932A publication Critical patent/CN109919932A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种目标对象的识别方法和装置。其中,该方法包括:获取包含目标对象的图像;利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域;利用第二U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界;基于目标对象所属的区域和区域的边界,得到识别结果。本发明解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。

Description

目标对象的识别方法和装置
技术领域
本发明涉及图像识别领域,具体而言,涉及一种目标对象的识别方法和装置。
背景技术
在医疗领域的图像识别中,前段光学相干断层扫描(Anterior segment opticalcoherence tomography,AS-OCT)用来辅助诊断许多眼科疾病,例如角膜疾病、白内障和青光眼等,是一种非侵入式无伤害的拍摄方式。晶状体,是眼球的主要屈光结构,当晶状体出现浑浊现象时(密度增加),会引起视力障碍,导致白内障产生。晶状体密度是衡量白内障等疾病严重程度的重要指标。目前基于AS-OCT影像的晶状体结构分割大多都是手动进行,并且具有可重复性差,人工成本较高等缺陷。AS-OCT图像中晶状体结构边界之间模糊,导致全自动分割困难,尤其是核(nucleus)和皮质(cortex)的边界。而且,在白内障患者眼中拍摄的AS-OCT图像,边界会变得更加模糊。
针对现有技术中目标对象的识别准确率较低,且可重复性较差的问题,目前尚未提出有效的解决方式。
发明内容
本发明实施例提供了一种目标对象的识别方法和装置,以至少解决现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
根据本发明实施例的一个方面,提供了一种目标对象的识别方法,包括:获取包含目标对象的图像;利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域;利用第二U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界;基于目标对象所属的区域和区域的边界,得到识别结果。
进一步地,在利用第二U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界之前,上述方法还包括:将区域的每个边界缩小预设数量的像素,得到缩小后的区域;将缩小后的区域中每个像素的灰度值降低为预设值,得到处理后的区域;利用第二U形全卷积神经网络模型对处理后的区域进行图像分割,得到区域的边界。
进一步地,利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域,包括:通过金字塔对图像进行采样,得到多个不同尺寸的图像;将多个不同尺寸的图像输入至第一U形全卷积神经网络模型中,得到目标对象所属的区域。
进一步地,利用第二U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界,包括:通过金字塔对目标对象所属的区域进行采样,得到多个不同尺寸的区域;将多个不同尺寸的区域输入至第二U形全卷积神经网络模型中,得到区域的边界。
进一步地,第一U形全卷积神经网络模型和第二U形全卷积神经网络模型的网络结构相同。
进一步地,网络结构包括:编码模型和解码模型,编码模型包括:多个输入层和多个第一网络块,输入层和第一网络块的数量相同,第一网络块包括:依次连接的至少两个第一卷积层,第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的第一个第一卷积层与对应的输入层和上一个第一网络块中的最后一个第一卷积层连接,第一个第一卷积层与对应的输入层采用复制和合并的跳跃连接方式连接;解码模型包括:多个第二网络块和输出层,第一网络块和第二网络块的数量相同,第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,级联层与对应的第一网络块和上一个第二网络块的最后一个第二卷积层连接,级联层与对应的第一网络块采用复制和合并的跳跃连接方式连接,旁侧输出层采用交叉熵损失函数,输出层与多个第二网络块的旁侧输出层连接。
进一步地,池化操作包括如下之一:最大池化操作和均值池操作。
进一步地,获取包含目标对象的图像,包括:利用前段光学相干断层扫描技术对目标对象进行扫描,得到图像。
进一步地,目标对象为晶状体核。
根据本发明实施例的另一方面,还提供了一种目标对象的识别装置,包括:获取模块,用于获取包含目标对象的图像;第一分割模块,用于利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域;第二分割模块,用于利用第二U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界;处理模块,用于基于目标对象所属的区域和区域的边界,得到识别结果。
根据本发明实施例的另一方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的目标对象的识别方法。
根据本发明实施例的另一方面,还提供了一种处理器,处理器用于运行程序,其中,程序运行时执行上述的目标对象的识别方法。
在本发明实施例中,在获取到包含目标对象的图像之后,可以首先利用第一个U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域,然后利用第二个U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界,进一步通过对目标对象所属的区域和区域的边界进行融合,得到最终的分割结果。容易注意到的是,通过结合两个U形全卷积神经网络模型进行晶状体结构分割,实现了基于深度学习全自动晶状体结构分割,达到了有效提高晶状体结构分割的准确性和可重复性的技术效果,进而解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种目标对象的识别方法的流程图;
图2a是根据本发明实施例的一种可选的AS-OCT眼底图的示意图;
图2b是根据本发明实施例的一种可选的处理后的区域的示意图;
图2c是根据本发明实施例的一种可选的分割结果的示意图;
图3是根据本发明实施例的一种U-net网络的网络结构的示意图;
图4是根据本发明实施例的一种可选的目标对象的识别方法的流程图;以及
图5是根据本发明实施例的一种目标对象的识别装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方式,下面将结合本发明实施例中的附图,对本发明实施例中的技术方式进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种目标对象的识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的一种目标对象的识别方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取包含目标对象的图像。
可选地,上述的目标对象可以是晶状体核。
具体地,上述的图像可以是AS-OCT眼底图,如图2a所示,图像中包含有晶状体结构,其中白色方框所在区域为晶状体区域。由于晶状体核和皮质的边界之间模糊,可以通过对晶状体核和皮质的边界进行准确分割,实现对晶状体结构的准确分割,因此,可以确定目标对象为晶状体核。
步骤S104,利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域。
具体地,在医学图像分割领域中,目前基于深度学习图像分割算法发展迅速,尤其是U形全卷积神经网络模型,即U-net网络的出现,在肺结节、肿瘤和血管厚度分割等医学图像领域取得了较大的发展。因此,可以通过U-net网络作为AS-OCT图像中晶状体结构的初始轮廓的分割,确定晶状体核区域。
需要说明的是,通过U-net网络对AS-OCT眼底图进行图像分割,不仅仅可以确定晶状体核区域,还可以确定晶状体的角膜和皮质区域。
步骤S106,利用第二U形全卷积神经网络模型对目标对象所属的区域进行处理,得到区域的边界。
具体地,由于U-net网络分割出的边界不规则,尤其是晶状体核的分割,因此可以进一步通过一个U-net网络对目标对象所属的区域进行再次分割,从而得到准确率更高的晶状体核区域的边界。
步骤S108,基于目标对象所属的区域和区域的边界,得到识别结果。
在一种可选的方式中,在通过双U-net网络对AS-OCT眼底图进行处理之后,可以确定第一个U-net网络分割出的晶状体核区域准确,但是,晶状体核区域的边界不准确,第二个U-net网络分割出的晶状体核区域的边界准确。因此,可以将两个U-net网络的分割结果进行融合,从而得到最终的识别结果,实现AS-OCT眼底图的准确分割。
通过本发明上述实施例,在获取到包含目标对象的图像之后,可以首先利用第一个U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域,然后利用第二个U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界,进一步通过对目标对象所属的区域和区域的边界进行融合,得到最终的分割结果。容易注意到的是,通过结合两个U形全卷积神经网络模型进行晶状体结构分割,实现了基于深度学习全自动晶状体结构分割,达到了有效提高晶状体结构分割的准确性和可重复性的技术效果,进而解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
可选地,在步骤S106,利用第二U形全卷积神经网络模型对目标对象所属的区域进行处理,得到区域的边界之前,该方法还包括如下步骤:将区域的每个边界缩小预设数量的像素,得到缩小后的区域;将缩小后的区域中每个像素的灰度值降低为预设值,得到处理后的区域;利用第二U形全卷积神经网络模型对处理后的区域进行处理,得到区域的边界。
具体地,上述的预设数量可以是20,预设值可以是128。
由于晶状体核区域和皮质区域的边界模糊,尤其是核区域与皮质区域存在灰度一致的区域,极其容易混淆,因此,可以将通过第一个U-net网络进行分割得到的晶状体核区域进行缩小,每个边界向内缩小20个像素,然后将剩下的核区域的灰度值改为128,处理后的区域如图2b所示,将处理后的区域输入到第二个U-net网络中,从而得到更加准确的晶状体核区域的边界,最终融合后的图像如图2c所示。
可选地,步骤S104,利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域,包括:通过金字塔对图像进行采样,得到多个不同尺寸的图像;将多个不同尺寸的图像输入至第一U形全卷积神经网络模型中,得到目标对象所属的区域。
具体地,为了有效的减少U-net网络中最大池化操作带来的损失,并且在网络中学习到更多的特征,可以采用多尺度U-net网络进行图像分割,也即,可以通过金字塔对AS-OCT眼底图进行采样,得到多个不同尺度的图像,并将多个不同尺度的图像输入至第一个U-net网络的不同层中进行处理,得到晶状体核区域。本申请实施例中,可以通过高斯金字塔对AS-OCT眼底图进行下采样。
而且,最终的图像数量与U-net网络中的层次相对应,例如,如果U-net网络的层次为6,则可以确定最终的图像数量为6,也即,需要对AS-OCT眼底图进行5次下采样。AS-OCT眼底图的尺寸为1024*1024,则5次下采样之后得到的图像的尺寸分别为:512*512、256*256、128*128、64*64、32*32。
可选地,步骤S106,利用第二U形全卷积神经网络模型对目标对象所属的区域进行处理,得到区域的边界,包括:通过金字塔对目标对象所属的区域进行采样,得到多个不同尺寸的区域;将多个不同尺寸的区域输入至第二U形全卷积神经网络模型中,得到区域的边界。
具体地,第一U形全卷积神经网络模型和第二U形全卷积神经网络模型的网络结构相同。与第一个U-net网络相同,第二个U-net网络也可以采用多尺度,也即,通过相同的金字塔对第一个U-net网络得到的晶状体核区域的图像进行下采样,得到多个不同尺度的图像,并将多个不同尺度的图像输入至第二个U-net网络的不同层中进行处理,得到晶状体核区域。同样地,最终的晶状体核区域的图像数量也可以是6。
可选地,网络结构包括:编码模型和解码模型,编码模型包括:多个输入层和多个第一网络块,输入层和第一网络块的数量相同,第一网络块包括:依次连接的至少两个第一卷积层,第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的第一个第一卷积层与对应的输入层和上一个第一网络块中的最后一个第一卷积层连接,第一个第一卷积层与对应的输入层采用复制和合并的跳跃连接方式连接;解码模型包括:多个第二网络块和输出层,第一网络块和第二网络块的数量相同,第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,级联层与对应的第一网络块和上一个第二网络块的最后一个第二卷积层连接,级联层与对应的第一网络块采用复制和合并的跳跃连接方式连接,旁侧输出层采用交叉熵损失函数,输出层与多个第二网络块的旁侧输出层连接。
可选地,上述的池化操作可以包括如下之一:最大池化操作和均值池操作。
具体地,由于AS-OCT眼底图的尺寸较大,为了提高图像分割准确性和可重复性,可以对现有的U-net网络进行改进,改进点主要在于:输入图像的尺寸较大,例如,输入尺寸为1024*1024,也即,AS-OCT眼底图的尺寸为1024*1024;卷积层使用的卷积核较小,例如,可以是3*3;整个U-net网络的层次较多,例如,整个网络的层次为6层,也即,第一网络块和第二网络块的数量为6个。
在本发明实施例中,每个卷积层可以使用激活函数(Relu)和最大池化操作。
U-net网络的网络结构如图3所示,网络结构包括编码模型(如图3中左侧所示)和解码模型(如图3中右侧所示),VGG19(Visual Geometry Group Network)可以作为网络的编码部分,包括六个网络块(即上述的第一网络块),每个网络块包含两到三个卷积层,每一个卷积层都会使用激活函数Relu(修正线性单元,rectified linear unit)和用于下采样的步长为2的2*2的最大池化,卷积层的卷积核为3*3,可以表示为Conv<3X3>with Relu,有利于细节特征的表达,测试速度相对于更深的残差网络能够有效保障,在每一个下采样的步骤中,特征通道数量都加倍;不同尺寸的图像可以通过多个输入层输入到网络中,输入层可以是3*3的卷积层,并采用激活函数Relu,输入层和网络可以使用复制和合并(Copy andMerge)的跳跃连接方式,可以有效利用不同层的特征,保障更好的分割效果。解码模块也包含六个网络块(即上述的第二网络块),每个网络块包含一个级联层,来自相应的特征层(即上述的对应的第一网络块)和上采样(up-sample)(即上述的对应的第二卷积层),系数为2,之后使用两个卷积层和旁侧输出层side-output,卷积层使用3*3的卷积核进行卷积运算,且使用激活函数(Relu)。编码模型和解码模型同样可以使用复制和合并(Copy and Merge)的跳跃连接方式;旁侧输出层side-output连接能有效避免层数过多导致的过拟合问题,使用的是1*1卷积核(conv<1x1>),不同层的side-optput输出使用的损失函数为交叉熵损失(Cross Entropy Loss)函数,用梯度下降求解时,交叉熵损失有更好的收敛特性;最后的输出层可以将所有损失求和作为最终的损失。
可选地,步骤S102,获取包含目标对象的图像,包括:利用前段光学相干断层扫描技术对目标对象进行扫描,得到图像。
具体地,可以通过AS-OCT技术对晶状体进行拍摄,得到AS-OCT眼底图。
图4是根据本发明实施例的一种可选的目标对象的识别方法的流程图,如图4所示,以晶状体核为例进行说明,可以在输入AS-OCT眼底图图像之后,使用多尺度的U形神经网络进行预测,得到晶状体初始分割区域,由于核区域和皮质区域边界模糊,尤其是核区域与皮质区域存在灰度一致的区域,极其容易混淆,所以将得到的晶状体核区域,进行缩小,每个边界向内减小20个像素,然后将剩下的核区域的灰度值改为128,并将这个结果输入到第二个网络中去,第二个网络负责预测晶状体核的区域,网络结构与第一个一致,使用的是多尺度的U形状神经网络,最后的结果与第一个网络进行融合得到最终的结果。
通过上述方案,本发明实施例提供了一种使用双U形多尺度神经网络结构全自动分割晶状体结构的方法,解决使用第一个网络结构能够分割出晶状体的结构,但是对于核和皮质层的边界较为模糊的问题,通过使用多尺度作为网络的输入,有效的减少最大池化带来的损失,并且能在网络中学习到更多的特征,并且通过使用六层的网络块,从而更好的提取全局信息和局部信息的关系,具有较高的一致性分割,能够很容易的迁移到其他的图像上,分割结果稳定。
实施例2
根据本发明实施例,提供了一种目标对象的识别装置的实施例。
图5是根据本发明实施例的一种目标对象的识别装置的示意图,如图5所示,该装置包括:获取模块52、第一分割模块54、第二分割模块56和处理模块58。
其中,获取模块52用于获取包含目标对象的图像;第一分割模块54用于利用第一U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域;第二分割模块56用于利用第二U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界;处理模块58用于基于目标对象所属的区域和区域的边界,得到识别结果。
可选地,上述的目标对象可以是晶状体核。
具体地,上述的图像可以是AS-OCT眼底图,如图2a所示,图像中包含有晶状体结构,其中白色方框所在区域为晶状体区域。由于晶状体核和皮质的边界之间模糊,可以通过对晶状体核和皮质的边界进行准确分割,实现对晶状体结构的准确分割,因此,可以确定目标对象为晶状体核。
在医学图像分割领域中,目前基于深度学习图像分割算法发展迅速,尤其是U形全卷积神经网络模型,即U-net网络的出现,在肺结节、肿瘤和血管厚度分割等医学图像领域取得了较大的发展。因此,可以通过U-net网络作为AS-OCT图像中晶状体结构的初始轮廓的分割,确定晶状体核区域。
需要说明的是,通过U-net网络对AS-OCT眼底图进行图像分割,不仅仅可以确定晶状体核区域,还可以确定晶状体的角膜和皮质区域。
由于U-net网络分割出的边界不规则,尤其是晶状体核的分割,因此可以进一步通过一个U-net网络对目标对象所属的区域进行再次分割,从而得到准确率更高的晶状体核区域的边界。
在一种可选的方式中,在通过双U-net网络对AS-OCT眼底图进行处理之后,可以确定第一个U-net网络分割出的晶状体核区域准确,但是,晶状体核区域的边界不准确,第二个U-net网络分割出的晶状体核区域的边界准确。因此,可以将两个U-net网络的分割结果进行融合,从而得到最终的识别结果,实现AS-OCT眼底图的准确分割。
通过本发明上述实施例,在通过获取模块获取到包含目标对象的图像之后,可以首先通过第一分割模块利用第一个U形全卷积神经网络模型对图像进行图像分割,得到目标对象所属的区域,然后通过第二分割模块利用第二个U形全卷积神经网络模型对目标对象所属的区域进行图像分割,得到区域的边界,进一步通过处理模块通过对目标对象所属的区域和区域的边界进行融合,得到最终的分割结果。容易注意到的是,通过结合两个U形全卷积神经网络模型进行晶状体结构分割,实现了基于深度学习全自动晶状体结构分割,达到了有效提高晶状体结构分割的准确性和可重复性的技术效果,进而解决了现有技术中目标对象的识别准确率较低,且可重复性较差的技术问题。
可选地,该装置还包括:缩小模块和降低模块。
其中,缩小模块用于将区域的每个边界缩小预设数量的像素,得到缩小后的区域;降低模块用于将缩小后的区域中每个像素的灰度值降低为预设值,得到处理后的区域;处理模块还用于利用第二U形全卷积神经网络模型对处理后的区域进行处理,得到区域的边界。
可选地,第一分割模块包括:第一采样单元和第一分割单元。
其中,第一采样单元用于通过金字塔对图像进行采样,得到多个不同尺寸的图像;第一分割单元用于将多个不同尺寸的图像输入至第一U形全卷积神经网络模型中,得到目标对象所属的区域。
可选地,第二分割模块包括:第二采样单元和第二分割单元。
其中,第二采样单元用于通过金字塔对目标对象所属的区域进行采样,得到多个不同尺寸的区域;第二分割单元用于将多个不同尺寸的区域输入至第二U形全卷积神经网络模型中,得到区域的边界。
可选地,网络结构包括:编码模型和解码模型,编码模型包括:多个输入层和多个第一网络块,输入层和第一网络块的数量相同,第一网络块包括:依次连接的至少两个第一卷积层,第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的第一个第一卷积层与对应的输入层和上一个第一网络块中的最后一个第一卷积层连接,第一个第一卷积层与对应的输入层采用复制和合并的跳跃连接方式连接;解码模型包括:多个第二网络块和输出层,第一网络块和第二网络块的数量相同,第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,级联层与对应的第一网络块和上一个第二网络块的最后一个第二卷积层连接,级联层与对应的第一网络块采用复制和合并的跳跃连接方式连接,旁侧输出层采用交叉熵损失函数,输出层与多个第二网络块的旁侧输出层连接。
可选地,上述的池化操作可以包括如下之一:最大池化操作和均值池操作。
可选地,获取模块包括:扫描单元。
其中,扫描单元用于利用前段光学相干断层扫描技术对目标对象进行扫描,得到图像。
实施例3
根据本发明实施例,提供了一种存储介质的实施例,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述实施例1中的目标对象的识别方法。
实施例4
根据本发明实施例,提供了一种处理器的实施例,处理器用于运行程序,其中,程序运行时执行上述实施例1中的目标对象的识别方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方式的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方式本质上或者说对现有技术做出贡献的部分或者该技术方式的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (12)

1.一种目标对象的识别方法,其特征在于,包括:
获取包含目标对象的图像;
利用第一U形全卷积神经网络模型对所述图像进行图像分割,得到所述目标对象所属的区域;
利用第二U形全卷积神经网络模型对所述目标对象所属的区域进行图像分割,得到所述区域的边界;
基于所述目标对象所属的区域和所述区域的边界,得到识别结果。
2.根据权利要求1所述的方法,其特征在于,在利用第二U形全卷积神经网络模型对所述目标对象所属的区域进行图像分割,得到所述区域的边界之前,所述方法还包括:
将所述区域的每个边界缩小预设数量的像素,得到缩小后的区域;
将所述缩小后的区域中每个像素的灰度值降低为预设值,得到处理后的区域;
利用第二U形全卷积神经网络模型对所述处理后的区域进行图像分割,得到所述区域的边界。
3.根据权利要求1所述的方法,其特征在于,利用第一U形全卷积神经网络模型对所述图像进行图像分割,得到所述目标对象所属的区域,包括:
通过金字塔对所述图像进行采样,得到多个不同尺寸的图像;
将所述多个不同尺寸的图像输入至所述第一U形全卷积神经网络模型中,得到所述目标对象所属的区域。
4.根据权利要求3所述的方法,其特征在于,利用第二U形全卷积神经网络模型对所述目标对象所属的区域进行图像分割,得到所述区域的边界,包括:
利用所述金字塔对所述目标对象所属的区域进行采样,得到多个不同尺寸的区域;
将所述多个不同尺寸的区域输入至所述第二U形全卷积神经网络模型中,得到所述区域的边界。
5.根据权利要求4所述的方法,其特征在于,所述第一U形全卷积神经网络模型和所述第二U形全卷积神经网络模型的网络结构相同。
6.根据权利要求5所述的方法,其特征在于,所述网络结构包括:编码模型和解码模型,
所述编码模型包括:多个输入层和多个第一网络块,所述输入层和所述第一网络块的数量相同,所述第一网络块包括:依次连接的至少两个第一卷积层,所述第一卷积层采用修正线性单元激活函数和池化操作,每个第一网络块中的第一个第一卷积层与对应的输入层和上一个第一网络块中的最后一个第一卷积层连接,所述第一个第一卷积层与所述对应的输入层采用复制和合并的跳跃连接方式连接;
所述解码模型包括:多个第二网络块和输出层,所述第一网络块和所述第二网络块的数量相同,所述第二网络块包括:依次连接的级联层、至少两个第二卷积层和旁侧输出层,所述级联层与对应的第一网络块和上一个第二网络块的最后一个第二卷积层连接,所述级联层与所述对应的第一网络块采用复制和合并的跳跃连接方式连接,所述旁侧输出层采用交叉熵损失函数,所述输出层与所述多个第二网络块的旁侧输出层连接。
7.根据权利要求6所述的方法,其特征在于,所述池化操作包括如下之一:最大池化操作和均值池操作。
8.根据权利要求1所述的方法,其特征在于,获取包含目标对象的图像,包括:
利用前段光学相干断层扫描技术对所述目标对象进行扫描,得到所述图像。
9.根据权利要求1所述的方法,其特征在于,所述目标对象为晶状体核。
10.一种目标对象的识别装置,其特征在于,包括:
获取模块,用于获取包含目标对象的图像;
第一分割模块,用于利用第一U形全卷积神经网络模型对所述图像进行图像分割,得到所述目标对象所属的区域;
第二分割模块,用于利用第二U形全卷积神经网络模型对所述目标对象所属的区域进行图像分割,得到所述区域的边界;
处理模块,用于基于所述目标对象所属的区域和所述区域的边界,得到识别结果。
11.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至9中任意一项所述的目标对象的识别方法。
12.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至9中任意一项所述的目标对象的识别方法。
CN201910177218.7A 2019-03-08 2019-03-08 目标对象的识别方法和装置 Pending CN109919932A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910177218.7A CN109919932A (zh) 2019-03-08 2019-03-08 目标对象的识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910177218.7A CN109919932A (zh) 2019-03-08 2019-03-08 目标对象的识别方法和装置

Publications (1)

Publication Number Publication Date
CN109919932A true CN109919932A (zh) 2019-06-21

Family

ID=66963966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910177218.7A Pending CN109919932A (zh) 2019-03-08 2019-03-08 目标对象的识别方法和装置

Country Status (1)

Country Link
CN (1) CN109919932A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335276A (zh) * 2019-07-10 2019-10-15 四川大学 医学图像分割模型、方法、存储介质及电子设备
CN111340816A (zh) * 2020-03-23 2020-06-26 沈阳航空航天大学 一种基于双u型网络框架的图像分割方法
CN111652266A (zh) * 2020-04-17 2020-09-11 北京三快在线科技有限公司 用户界面组件的识别方法、装置、电子设备和存储介质
CN113361482A (zh) * 2021-07-07 2021-09-07 南方科技大学 核性白内障识别方法、装置、电子设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107993229A (zh) * 2017-12-15 2018-05-04 西安中科微光影像技术有限公司 一种基于心血管ivoct图像的组织分类方法和装置
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN108764241A (zh) * 2018-04-20 2018-11-06 平安科技(深圳)有限公司 分割股骨近端的方法、装置、计算机设备和存储介质
CN109166130A (zh) * 2018-08-06 2019-01-08 北京市商汤科技开发有限公司 一种图像处理方法及图像处理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107993229A (zh) * 2017-12-15 2018-05-04 西安中科微光影像技术有限公司 一种基于心血管ivoct图像的组织分类方法和装置
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN108764241A (zh) * 2018-04-20 2018-11-06 平安科技(深圳)有限公司 分割股骨近端的方法、装置、计算机设备和存储介质
CN109166130A (zh) * 2018-08-06 2019-01-08 北京市商汤科技开发有限公司 一种图像处理方法及图像处理装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HUAZHU FU ET AL: "Angle-Closure Detection in Anterior Segment OCT based on Multi-Level Deep Network", 《ARXIV》 *
HUAZHU FU ET AL: "Joint Optic Disc and Cup Segmentation Based on Multi-Label Deep Network and Polar Transformation", 《IEEE TRANSACTIONS ON MEDICAL IMAGING》 *
HUAZHU FU ET AL: "Multi-Context Deep Network for Angle-Closure Glaucoma Screening in Anterior Segment OCT", 《ARXIV》 *
PENGSHUAI YIN ET AL: "Automatic Segmentation o f Cortex and Nucleus in Anterior Segment OCT Images", 《COMPUTATIONAL PATHOLOGY AND OPHTHALMIC MEDICAL IMAGE ANALYSIS》 *
马晓路 等: "《MATLAB图像处理从入门到精通》", 28 February 2013 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335276A (zh) * 2019-07-10 2019-10-15 四川大学 医学图像分割模型、方法、存储介质及电子设备
CN110335276B (zh) * 2019-07-10 2021-02-26 四川大学 医学图像分割模型、方法、存储介质及电子设备
CN111340816A (zh) * 2020-03-23 2020-06-26 沈阳航空航天大学 一种基于双u型网络框架的图像分割方法
CN111652266A (zh) * 2020-04-17 2020-09-11 北京三快在线科技有限公司 用户界面组件的识别方法、装置、电子设备和存储介质
CN113361482A (zh) * 2021-07-07 2021-09-07 南方科技大学 核性白内障识别方法、装置、电子设备以及存储介质

Similar Documents

Publication Publication Date Title
CN109919932A (zh) 目标对象的识别方法和装置
CN104992430B (zh) 基于卷积神经网络的全自动的三维肝脏分割方法
CN109872328A (zh) 一种脑部图像分割方法、装置和存储介质
CN108665457A (zh) 图像识别方法、装置、存储介质及计算机设备
CN110689543A (zh) 基于注意机制的改进卷积神经网络脑肿瘤图像分割方法
CN110197493A (zh) 眼底图像血管分割方法
CN109345538A (zh) 一种基于卷积神经网络的视网膜血管分割方法
CN108986891A (zh) 医疗影像处理方法及装置、电子设备及存储介质
CN110544274B (zh) 一种基于多光谱的眼底图像配准方法及系统
CN109389584A (zh) 基于cnn的多尺度鼻咽肿瘤分割方法
US20220284584A1 (en) Computerised tomography image processing
CN110517235A (zh) 一种基于GCS-Net进行OCT图像脉络膜自动分割方法
JP7019815B2 (ja) 学習装置
CN109671049B (zh) 一种医学图像处理方法、系统、设备、存储介质
CN109934813A (zh) 目标对象的识别方法和装置
Paul et al. Octx: Ensembled deep learning model to detect retinal disorders
CN112884729A (zh) 基于双模态深度学习的眼底疾病辅助诊断方法和装置
CN109919954A (zh) 目标对象的识别方法和装置
Duan et al. A generative model for OCT retinal layer segmentation by groupwise curve alignment
Vang et al. SynergyNet: a fusion framework for multiple sclerosis brain MRI segmentation with local refinement
Liu et al. Automated classification and measurement of fetal ultrasound images with attention feature pyramid network
Wu et al. A state-of-the-art survey of U-Net in microscopic image analysis: From simple usage to structure mortification
Kugelman et al. Constructing synthetic chorio-retinal patches using generative adversarial networks
CN109919098A (zh) 目标对象的识别方法和装置
US20210307610A1 (en) Methods and systems for precise quantification of human sensory cortical areas

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190621