CN110674824A - 基于R2U-Net的手指静脉分割方法、装置和存储介质 - Google Patents
基于R2U-Net的手指静脉分割方法、装置和存储介质 Download PDFInfo
- Publication number
- CN110674824A CN110674824A CN201910917188.9A CN201910917188A CN110674824A CN 110674824 A CN110674824 A CN 110674824A CN 201910917188 A CN201910917188 A CN 201910917188A CN 110674824 A CN110674824 A CN 110674824A
- Authority
- CN
- China
- Prior art keywords
- net
- neural network
- finger vein
- convolutional layer
- network training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Abstract
本发明公开了一种基于R2U‑Net的手指静脉分割方法、装置和存储介质,在编解码单元中,用具有残差单元的循环卷积层来代替规则的前向卷积层,使用循环卷积层的残差单元有助于建立一个更有效的更深层的模型,而其中的循环卷积层单元包含了有效的特征累积方法,不同时间步长的特征积累保证了更好、更强的特征表示。因此,它有助于提取非常低层次的特征,这些特征对于手指静脉的分割是必不可少的。在神经网络训练过程中,一方面在每张图像中随机选择其中心获得子块来进行数据扩充;另一方面将综合六种传统方法附以不同权重提取到的纹路作为金标准,该方法可以充分发挥每种传统提取纹路的优势,弥补劣势。
Description
技术领域
本发明涉及神经网络技术领域,尤其是一种基于R2U-Net的手指静脉分割方法、装置和存储介质。
背景技术
近年来,随着人们对生物识别系统安全性和准确性的要求越来越高,生物特征识别技术得到越来越多的关注。手指静脉识别作为众多生物特征识别技术中的一种,由于具有非接触式采集、活体检测、不易伪造、成本较低等优点,成为当前研究的热点。而手指静脉图像血管的分割是指静脉识别技术中的一个关键步骤,分割效果的优劣直接影响后续识别的精度和准确度。
在实际应用中,拍摄采集到的图像不仅含有静脉纹路,还含有不规则的噪声、手指骨骼和肌肉的不同厚度所产生的阴影。此外,手指静脉会随着温度或物理条件的变化而变化,因此很难精确地提取静脉血管的细节。传统的图像分割算法,例如Otsu算法、熵算法、K-均值算法和模糊C-均值算法,由于对低质量的手指静脉图像需要较多的阈值,因此无法达到良好的分割效果。
基于深度学习的语义分割方法虽然已成功应用到图像分类、分割和检测等任务上,且均获得了优越的性能,比如FCN、SegNet、DeepLab、RefineNet、PSPNet、U-Net等,但应用于手指静脉分割领域的方法很少,主要问题在于手指静脉血管结构极为复杂,具有高弯曲度且形状多样,使得静脉血管分割任务十分具有挑战性,故无法达到良好的特征表示方法,此外公开的手指静脉数据集较小,也没有合适的用于神经网络训练静脉图像的参考标准。
发明内容
为解决上述问题,本发明的目的在于提供一种基于R2U-Net的手指静脉分割方法、装置和存储介质,通过将网络中扩展路径与收缩路径相同特征通道的拼接,可以在得到很好静脉细节的基础上,获得尽可能强的图像语义信息,然后在编解码单元中使用具有残差单元的循环卷积层来代替规则的前向卷进层,使用循环卷积层的残差单元有助于建立一个更有效的更深层的模型,而其中的循环卷积层单元包含了有效的特征累积方法,不同时间步长的特征积累保证了更好、更强的特征表示。
本发明解决其问题所采用的技术方案是:
第一方面,本发明实施例提出了一种基于R2U-Net的手指静脉分割方法,包括:
生成利于神经网路训练的预处理图像;
生成利于神经网络训练的子块数据;
生成利于神经网络训练的金标准;
采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累。
进一步,所述生成利于神经网路训练的预处理图像包括:图像的预处理过程包括灰度变换、ROI提取、归一化、对比度受限的自适应直方图均衡和伽马调整,目的在于突出静脉纹路丰富的区域,减少处理时间,增加精度。
进一步,所述生成利于神经网络训练的子块数据包括:将预处理图像随机选择其中心获得子块来进行数据扩充,并将每个子块作为神经网络的输入,这样一方面分块后静脉细节被放大,另一方面利于深层神经网络的训练。
进一步,所述生成利于神经网络训练的金标准包括:通过重复线追踪、宽线检测器、Gabor滤波器、最大曲率、平均曲率和增强型最大曲率来提取六种手指静脉分割的纹路图,并将该六种纹路图附以不同的权重来得到神经网络训练的金标准,该方法可以充分发挥每种传统提取纹路的优势,弥补劣势,使得金标准尽量准确。
进一步,所述采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累包括:由于神经网络的输入为一个个子块使得子块的细节特征远少于整幅图像的特征,因此在原来U-Net网络的结构基础上,冻结最后两层重复结构来简化网络,在能保证得到很好的静脉基础上减少参数的计算,通过用具有残差单元的循环卷积层来代替简化后的U-Net网络中的标准前向卷积层,可以为分割任务提供更好的特征表示,从而实现更为准确的分割结果,最后得到R2U-Net结构。
第二方面,本发明实施例还提出了一种基于R2U-Net的手指静脉分割装置,包括:
图像预处理模块,用于生成利于神经网路训练的预处理图像;
数据扩充模块,用于生成利于神经网络训练的子块数据;
金标准制作模块,用于生成利于神经网络训练的金标准;
网络搭建模块,用于采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累。
第三方面,本发明实施例还提出了一种基于R2U-Net的手指静脉分割设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明第一方面所述的方法。
第四方面,本发明实施例还提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行本发明第一方面所述的方法。
本发明实施例中提供的一个或多个技术方案,至少具有如下有益效果:本发明提供的一种基于R2U-Net的手指静脉分割方法、装置和存储介质,该网络体系结构由与U-Net相同的编解码单元组成,在编解码单元中,用具有残差单元的循环卷积层来代替规则的前向卷积层,使用循环卷积层的残差单元有助于建立一个更有效的更深层的模型,而其中的循环卷积层单元包含了有效的特征累积方法,不同时间步长的特征积累保证了更好、更强的特征表示。因此,它有助于提取非常低层次的特征,这些特征对于手指静脉的分割是必不可少的。在神经网络训练过程中,一方面在每张图像中随机选择其中心获得子块来进行数据扩充;另一方面将综合六种传统方法附以不同权重提取到的纹路作为金标准,该方法可以充分发挥每种传统提取纹路的优势,弥补劣势。本发明可以准确地分割出静脉纹路,对后续的指静脉识别或指静脉医学研究具有前景意义。
附图说明
下面结合附图和实例对本发明作进一步说明。
图1是本发明第一实施例中基于R2U-Net的手指静脉分割方法的流程简图;
图2是本发明第一实施例中基于R2U-Net的手指静脉分割方法的总体流程图;
图3是本发明第一实施例中用于生成网络训练的金标准算法流程图;
图4是本发明第一实施例中U-Net的网络架构;
图5是本发明第一实施例中R2U-Net的网络架构;
图6是本发明第一实施例中基于R2U-Net的手指静脉分割方法的详细流程图。
图7是本发明第二实施例中基于R2U-Net的手指静脉分割装置的结构简图;
图8是本发明第三实施例中基于R2U-Net的手指静脉分割设备的结构简图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
下面结合附图,对本发明实施例作进一步阐述。
如图1所示,本发明的第一实施例提供了一种基于R2U-Net的手指静脉分割方法,包括但不限于以下步骤:
S100:生成利于神经网路训练的预处理图像;
S200:生成利于神经网络训练的子块数据;
S300:生成利于神经网络训练的金标准;
S400:采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累。
在步骤S100中,将采集的指静脉图像进行灰度变换、ROI提取、归一化、对比度受限的自适应直方图均衡和伽马调整等预处理操作。
在步骤S200中,将预处理后的图像随机选择其中心获得子块来进行数据扩充,并将一个个子块作为神经网络的输入。
在步骤S300中,通过综合传统的指静脉分割方法例如重复线追踪、宽线检测器、Gabor滤波器、最大曲率、平均曲率和增强型最大曲率,来提取六种手指静脉分割的纹路图,并将该六种图附以不同的权重,来得到神经网络训练的金标准。
在步骤S400中,在传统的U-Net网络的扩展路径和收缩路径中,针对分块的网络输入冻结最后两层重复结构来简化网络,此外,用具有残差单元的循环卷积层来取代原始的规则前向卷积层,得到我们的R2U-Net结构。
下面将结合附图更详细地描述基于R2U-Net网络的手指静脉分割方法。
如图2所示,本方法的实现包括图像预处理、数据扩充、标签制作和网络搭建四部分。
图像的预处理包括灰度变换、ROI提取、归一化、对比度受限的自适应直方图均衡和伽马调整等。由于单通道的静脉血管背景对比度优于RGB图像,故将原始RGB静脉图像转换为单通道图像,接着利用归一化和对比度受限的自适应直方图均衡来增强前后背景对比度,最后引入伽马调整,进一步提高图像质量。
为了减少过拟合问题,将模型训练在随机抽取的小块图像上,为了降低计算复杂度,保证周围的局部特征,将小块的尺寸设置为48×48,根据标签确定小块对应的标签。
图3是标签的制作过程,在此选择了六种传统方法作为标签的基础构造分割图,根据分割质量的好坏以及各种方法的优劣附以不同的权重,权重的大小在图3中已标出,接着将其进行图像叠加、图像平均、二值化、滤波等操作,得到最终用于网络训练的金标准。
图4是U-Net的网络架构。从传统U-Net网络结构出发,针对分块的网络输入冻结最后两层重复结构来简化网络,减少参数计算。
网络由一条收缩路径(左侧)和一条扩展路径(右侧)组成。
收缩路径遵循卷积网络的典型结构,它是一种重复结构,每次重复中都有两个卷积层和一个池化层,卷积层中卷积核大小均为3*3,激活函数使用ReLU,两个卷积层之后是一个2*2的步长为2的最大池化层;
每一次下采样后我们都把特征通道的数量加倍;
扩展路径中使用两次反卷积,通过学习得到的卷积核进行上采样,从而恢复出原先的分辨率;
每次使用反卷积都将特征通道数量减半,并将反卷积的结果与收缩路径中对应的相同通道数的特征图拼接;
对拼接后的特征映射进行两次3*3的卷积,最后一层的卷积核大小为1*1,将32通道的特征图转化为2通道(2分类)的结果。
网络总共十三个卷积层,两个池化层。
图5是R2U-Net的网络架构。用具有残差单元的循环卷积层来代替规则的前向卷积层,使用循环卷积层的残差单元有助于建立一个更有效的更深层的模型,而其中的循环卷积层单元包含了有效的特征累积方法,不同时间步长的特征积累保证了更好、更强的特征表示。
F(xl,wl)表示来自循环卷积单元第lth层的输出。F(xl,wl)的输出分别用于模型的卷积编解码单元中的下采样层和上采样层。R2U-Net的情况下,循环卷积单元的最终输出通过图5右半部分的残差单元传递。所以循环卷积残差块的输出xl+1可以按以下方式计算:
xl+1=xl+F(xl,wl)
在这里,xl表示循环卷积残差块块的输入样本。在R2U-Net的编码和解码卷积单元中,使用xl+1样本作为立即后续下采样或上采样层的输入。残差单元的特征映射的维数和特征映射的数量与图5右半部分所示的循环卷积残差块中相同。
此模型中,使用具有残差单元的循环卷积层而来替换编解码单元中规则的前向卷积层。循环卷积层的残差单元有助于建立一个更有效的更深层的模型。其次,循环卷积层单元包含更有效的特征累积方法。
如图5所示,我们从基本的u-net模型中删除了裁剪和复制操作,只使用了级联操作,从而形成了一个参数较少但性能更好的体系结构。
图6为指静脉分割算法详细流程图,图像经由图像预处理、分块以及标签制作后,一同送入R2U-Net网络中进行训练,该网络可以学习到静脉血管更强的特征表示。
综合来看,通过数据扩充来支撑深层神经网络的训练,通过综合传统方法的优劣来提取静脉纹路,并将此作为神经网络训练的参考标准,通过将循环卷积残差层替换掉原始U-Net网络的前向卷积层,可以学习到手指静脉更强的特征表示,因此可以取得更好的分割效果。
应当指出,上述方法也可应用于其他数据集较少的分割领域,且能得到较好的分割效果,例如视网膜分割,皮肤病变分割,乳腺病变分割等。
综上所述,与现有技术相比,本基于R2U-Net的手指静脉分割方法的优点在于:该网络体系结构由与U-Net相同的编解码单元组成,在编解码单元中,用具有残差单元的循环卷积层来代替规则的前向卷积层,使用循环卷积层的残差单元有助于建立一个更有效的更深层的模型,而其中的循环卷积层单元包含了有效的特征累积方法,不同时间步长的特征积累保证了更好、更强的特征表示。因此,它有助于提取非常低层次的特征,这些特征对于手指静脉的分割是必不可少的。在神经网络训练过程中,一方面在每张图像中随机选择其中心获得子块来进行数据扩充;另一方面将综合六种传统方法附以不同权重提取到的纹路作为金标准,该方法可以充分发挥每种传统提取纹路的优势,弥补劣势。
另外,如图7所示,本发明的第二实施例提供了一种基于R2U-Net的手指静脉分割装置,包括:
图像预处理模块110,用于生成利于神经网路训练的预处理图像;
数据扩充模块120,用于生成利于神经网络训练的子块数据;
金标准制作模块130,用于生成利于神经网络训练的金标准;
网络搭建模块140,用于采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累。
本实施例中的基于R2U-Net的手指静脉分割装置与第一实施例中的基于R2U-Net的手指静脉分割方法基于相同的发明构思,因此,本实施例中的基于R2U-Net的手指静脉分割系统具有相同的有益效果:通过将网络中扩展路径与收缩路径相同特征通道的拼接,可以在得到很好静脉细节的基础上,获得尽可能强的图像语义信息,然后在编解码单元中使用具有残差单元的循环卷积层来代替规则的前向卷进层,使用循环卷积层的残差单元有助于建立一个更有效的更深层的模型,而其中的循环卷积层单元包含了有效的特征累积方法,不同时间步长的特征积累保证了更好、更强的特征表示。
如图8所示,本发明的第三实施例还提供了一种基于R2U-Net的手指静脉分割设备,包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述第一实施例中任意一种基于R2U-Net的手指静脉分割方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的虚拟影像控制方法对应的程序指令/模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行立体成像处理装置的各种功能应用以及数据处理,即实现上述任一方法实施例的基于R2U-Net的手指静脉分割方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据立体成像处理装置的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该立体投影装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器中,当被所述一个或者多个处理器执行时,执行上述任意方法实施例中的基于R2U-Net的手指静脉分割方法,例如第一实施例中的方法步骤S100至S400。
本发明的第四实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器执行,可使得上述一个或多个处理器执行上述方法实施例中的一种基于R2U-Net的手指静脉分割方法,例如第一实施例中的方法步骤S100至S400。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (8)
1.一种基于R2U-Net的手指静脉分割方法,其特征在于,包括:
生成利于神经网路训练的预处理图像;
生成利于神经网络训练的子块数据;
生成利于神经网络训练的金标准;
采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累。
2.根据权利要求1所述的一种基于R2U-Net的手指静脉分割方法,其特征在于,所述生成利于神经网路训练的预处理图像包括:图像的预处理过程包括灰度变换、ROI提取、归一化、对比度受限的自适应直方图均衡和伽马调整。
3.根据权利要求1所述的一种基于R2U-Net的手指静脉分割方法,其特征在于,所述生成利于神经网络训练的子块数据包括:将预处理图像随机选择其中心获得子块来进行数据扩充,并将每个子块作为神经网络的输入。
4.根据权利要求1所述的一种基于R2U-Net的手指静脉分割方法,其特征在于,所述生成利于神经网络训练的金标准包括:通过重复线追踪、宽线检测器、Gabor滤波器、最大曲率、平均曲率和增强型最大曲率来提取六种手指静脉分割的纹路图,并将该六种纹路图附以不同的权重来得到神经网络训练的金标准。
5.根据权利要求1所述的一种基于R2U-Net的手指静脉分割方法,其特征在于,所述采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累包括:通过用具有残差单元的循环卷积层来代替简化后的U-Net网络中的标准前向卷积层,得到R2U-Net结构。
6.一种基于R2U-Net的手指静脉分割装置,其特征在于,包括:
图像预处理模块,用于生成利于神经网路训练的预处理图像;
数据扩充模块,用于生成利于神经网络训练的子块数据;
金标准制作模块,用于生成利于神经网络训练的金标准;
网络搭建模块,用于采用具有残差单元的循环卷积层代替规则的前向卷积层来学习特征表示以及特征积累。
7.一种基于R2U-Net的手指静脉分割设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-5任一项所述的方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910917188.9A CN110674824A (zh) | 2019-09-26 | 2019-09-26 | 基于R2U-Net的手指静脉分割方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910917188.9A CN110674824A (zh) | 2019-09-26 | 2019-09-26 | 基于R2U-Net的手指静脉分割方法、装置和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110674824A true CN110674824A (zh) | 2020-01-10 |
Family
ID=69079259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910917188.9A Pending CN110674824A (zh) | 2019-09-26 | 2019-09-26 | 基于R2U-Net的手指静脉分割方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674824A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368633A (zh) * | 2020-01-18 | 2020-07-03 | 中国海洋大学 | 一种基于auv的侧扫声呐图像识别方法 |
CN111369519A (zh) * | 2020-03-02 | 2020-07-03 | 博动医学影像科技(上海)有限公司 | 冠状动脉的血流速度的计算方法、装置及电子设备 |
CN111583262A (zh) * | 2020-04-23 | 2020-08-25 | 北京小白世纪网络科技有限公司 | 一种血管分割方法与系统 |
CN111815569A (zh) * | 2020-06-15 | 2020-10-23 | 广州视源电子科技股份有限公司 | 基于深度学习的图像分割方法、装置、设备和存储介质 |
CN112183510A (zh) * | 2020-12-01 | 2021-01-05 | 北京圣点云信息技术有限公司 | 基于Att-3CRB-Unet网络的指静脉图像分割方法及装置 |
CN113052849A (zh) * | 2021-04-16 | 2021-06-29 | 中国科学院苏州生物医学工程技术研究所 | 腹部组织图像自动分割方法及系统 |
CN113609900A (zh) * | 2021-06-25 | 2021-11-05 | 南京信息工程大学 | 局部生成人脸定位方法、装置、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106326886A (zh) * | 2016-11-07 | 2017-01-11 | 重庆工商大学 | 基于卷积神经网络的手指静脉图像质量评估方法及评估系统 |
CN110084238A (zh) * | 2019-04-09 | 2019-08-02 | 五邑大学 | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 |
CN110151181A (zh) * | 2019-04-16 | 2019-08-23 | 杭州电子科技大学 | 基于递归残差u型网络的快速磁共振成像方法 |
-
2019
- 2019-09-26 CN CN201910917188.9A patent/CN110674824A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106326886A (zh) * | 2016-11-07 | 2017-01-11 | 重庆工商大学 | 基于卷积神经网络的手指静脉图像质量评估方法及评估系统 |
CN110084238A (zh) * | 2019-04-09 | 2019-08-02 | 五邑大学 | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 |
CN110151181A (zh) * | 2019-04-16 | 2019-08-23 | 杭州电子科技大学 | 基于递归残差u型网络的快速磁共振成像方法 |
Non-Patent Citations (1)
Title |
---|
MD ZAHANGIR ALOM等: "Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation", 《ARXIV》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368633A (zh) * | 2020-01-18 | 2020-07-03 | 中国海洋大学 | 一种基于auv的侧扫声呐图像识别方法 |
CN111369519A (zh) * | 2020-03-02 | 2020-07-03 | 博动医学影像科技(上海)有限公司 | 冠状动脉的血流速度的计算方法、装置及电子设备 |
JP7445779B2 (ja) | 2020-03-02 | 2024-03-07 | シャンハイ・パルス・メディカル・テクノロジー,インコーポレイテッド | 冠状動脈の血流速度の算出方法、装置及び電子デバイス |
CN111583262A (zh) * | 2020-04-23 | 2020-08-25 | 北京小白世纪网络科技有限公司 | 一种血管分割方法与系统 |
CN111815569A (zh) * | 2020-06-15 | 2020-10-23 | 广州视源电子科技股份有限公司 | 基于深度学习的图像分割方法、装置、设备和存储介质 |
CN111815569B (zh) * | 2020-06-15 | 2024-03-29 | 广州视源电子科技股份有限公司 | 基于深度学习的图像分割方法、装置、设备和存储介质 |
CN112183510A (zh) * | 2020-12-01 | 2021-01-05 | 北京圣点云信息技术有限公司 | 基于Att-3CRB-Unet网络的指静脉图像分割方法及装置 |
CN113052849A (zh) * | 2021-04-16 | 2021-06-29 | 中国科学院苏州生物医学工程技术研究所 | 腹部组织图像自动分割方法及系统 |
CN113052849B (zh) * | 2021-04-16 | 2024-01-26 | 中国科学院苏州生物医学工程技术研究所 | 腹部组织图像自动分割方法及系统 |
CN113609900A (zh) * | 2021-06-25 | 2021-11-05 | 南京信息工程大学 | 局部生成人脸定位方法、装置、计算机设备和存储介质 |
CN113609900B (zh) * | 2021-06-25 | 2023-09-12 | 南京信息工程大学 | 局部生成人脸定位方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674824A (zh) | 基于R2U-Net的手指静脉分割方法、装置和存储介质 | |
CN108009520B (zh) | 基于卷积变分自编码器网络的手指静脉识别方法及系统 | |
CN110969124B (zh) | 基于轻量级多分支网络的二维人体姿态估计方法及系统 | |
CN110084238B (zh) | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 | |
CN108764041B (zh) | 用于下部遮挡人脸图像的人脸识别方法 | |
CN111444881A (zh) | 伪造人脸视频检测方法和装置 | |
JP7130905B2 (ja) | フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 | |
CN107729820B (zh) | 一种基于多尺度hog的手指静脉识别方法 | |
CN110751636B (zh) | 一种基于改进型编解码网络的眼底图像视网膜动脉硬化检测方法 | |
CN110580680B (zh) | 基于组合学习的人脸超分辨率方法及装置 | |
CN109035172A (zh) | 一种基于深度学习的非局部均值超声图像去噪方法 | |
CN110570443B (zh) | 一种基于结构约束条件生成模型的图像线状目标提取方法 | |
WO2021017006A1 (zh) | 图像处理方法及装置、神经网络及训练方法、存储介质 | |
CN111079764A (zh) | 一种基于深度学习的低照度车牌图像识别方法及装置 | |
CN110738660A (zh) | 基于改进U-net的脊椎CT图像分割方法及装置 | |
CN116433914A (zh) | 一种二维医学图像分割方法及系统 | |
CN110570394A (zh) | 医学图像分割方法、装置、设备及存储介质 | |
CN111814682A (zh) | 人脸活体检测方法及装置 | |
CN111178221A (zh) | 身份识别方法及装置 | |
CN111507279B (zh) | 一种基于UNet++网络的掌纹识别方法 | |
CN116778470A (zh) | 对象识别及对象识别模型训练方法、装置、设备及介质 | |
CN112446835A (zh) | 图像恢复方法、图像恢复网络训练方法、装置和存储介质 | |
CN110674681A (zh) | 基于注意力机制的身份验证方法和装置 | |
KR102629393B1 (ko) | 병렬 서브샘플링 구조를 가지는 cnn 기반 지정맥 인식 기법 | |
Nguyen et al. | LAWNet: A Lightweight Attention-Based Deep Learning Model for Wrist Vein Verification in Smartphones Using RGB Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200110 |
|
RJ01 | Rejection of invention patent application after publication |