CN112183541B - 一种轮廓提取方法及装置、电子设备、存储介质 - Google Patents

一种轮廓提取方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN112183541B
CN112183541B CN202010981470.6A CN202010981470A CN112183541B CN 112183541 B CN112183541 B CN 112183541B CN 202010981470 A CN202010981470 A CN 202010981470A CN 112183541 B CN112183541 B CN 112183541B
Authority
CN
China
Prior art keywords
contour
target
curve
parameters
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010981470.6A
Other languages
English (en)
Other versions
CN112183541A (zh
Inventor
徐瑞华
李超峰
陈海畴
邓一术
经秉中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University Cancer Center
Original Assignee
Sun Yat Sen University Cancer Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University Cancer Center filed Critical Sun Yat Sen University Cancer Center
Priority to CN202010981470.6A priority Critical patent/CN112183541B/zh
Publication of CN112183541A publication Critical patent/CN112183541A/zh
Application granted granted Critical
Publication of CN112183541B publication Critical patent/CN112183541B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Abstract

本申请实施例涉及计算机视觉处理技术领域,公开了一种轮廓提取方法及装置、电子设备、存储介质,能够提高轮廓提取的效率。该方法包括:获取待识别图像。通过训练得到的目标分割模型对待识别图像中的目标对象进行轮廓分析,得到轮廓参数,并基于轮廓参数获得N条分段曲线的分段参数,N为正整数。之后,通过目标分割模型,并结合曲线方程对每条分段曲线的分段参数进行曲线解码,获得N条分段曲线各自对应的轮廓点坐标。最后,对N条分段曲线各自对应的轮廓点坐标进行拼接,生成目标对象的目标轮廓。

Description

一种轮廓提取方法及装置、电子设备、存储介质
技术领域
本申请涉及计算机视觉处理技术领域,具体涉及一种轮廓提取方法及装置、电子设备、存储介质。
背景技术
目标分割是计算机视觉领域中的一个热门研究方向,其主要用于根据灰度、色彩和空间纹理等特征把图像划分成若干个不同区域,使得同一区域内部的像素点具有一致性或者相似性。目前,基于像素点的目标分割方法可以对图像中每一个像素点进行预测、分类及打上标签,从而提取出特定区域的轮廓。然而,这种方式需要分析大量的图像像素点,因此运算量较大,降低了轮廓提取的效率。
发明内容
本申请实施例公开了一种轮廓提取方法及装置、电子设备、存储介质,能够提高轮廓提取的效率。
本申请实施例第一方面提供一种轮廓提取方法,所述方法包括:
获取待识别图像;
通过训练得到的目标分割模型对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数,并基于所述轮廓参数获得N条分段曲线的分段参数,N为正整数;
通过所述目标分割模型,并结合曲线方程对每条分段曲线的分段参数进行曲线解码,获得所述N条分段曲线各自对应的轮廓点坐标;
将所述N条分段曲线各自对应的轮廓点坐标进行拼接,生成所述目标对象的目标轮廓。
作为一种可选的实施方式,在本申请实施例第一方面中,所述轮廓参数包括M个控制点和N个端点,M为正整数,所述目标分割模型包括解码器;所述基于所述轮廓参数获得N条分段曲线的分段参数,包括:
通过所述解码器,根据所述N个端点对所述M个控制点进行分类,确定N条分段曲线各自对应的控制点;
所述通过所述目标分割模型,并结合曲线方程对每条分段曲线的分段参数进行曲线解码,获得所述N条分段曲线各自对应的轮廓点坐标,包括:
按照预设采样策略获取每条所述分段曲线上多个轮廓点对应的求解系数矩阵;
通过所述解码器,并结合曲线方程将每条所述分段曲线对应的求解系数矩阵和控制点进行曲线解码,获得每条所述分段曲线对应的多个轮廓点坐标。
作为一种可选的实施方式,在本申请实施例第一方面中,所述将所述N条分段曲线各自对应的轮廓点坐标进行拼接,生成所述目标对象的目标轮廓,包括:
将每条所述分段曲线对应的多个轮廓点坐标进行连接,生成N条分段曲线;
将所述N条分段曲线中满足拼接条件的任意两条分段曲线进行拼接,生成所述目标对象的目标轮廓;其中,所述拼接条件包括两条分段曲线上至少存在一个相同的端点。
作为一种可选的实施方式,在本申请实施例第一方面中,所述目标分割模型还包括分类神经网络;所述通过训练得到的目标分割模型对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数,包括:
将所述待识别图像输入所述分类神经网络,通过所述分类神经网络对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数;其中,所述分类神经网络包括输入层和隐含层,所述隐含层中最后一层全连接层的节点数为(M+N)*D,D为维度。
作为一种可选的实施方式,在本申请实施例第一方面中,所述目标分割模型包括分类神经网络和解码器;所述获取待识别图像之前,所述方法还包括:
获取样本图像中目标对象的目标样本轮廓,以及获取从所述目标样本轮廓中确定的目标轮廓参数;
将所述样本图像输入到所述分类神经网络进行轮廓分析,获得预测轮廓参数;
将所述目标轮廓参数和所述预测轮廓参数分别输入到所述解码器进行曲线解码,获得所述目标轮廓参数所对应轮廓曲线上的多个目标轮廓点坐标和所述预测轮廓参数所对应轮廓曲线上的多个预测轮廓点坐标;
根据所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算所述目标分割模型的损失,并根据所述损失调整所述目标分割模型的参数。
作为一种可选的实施方式,在本申请实施例第一方面中,所述目标轮廓参数包括N个目标端点和M个目标控制点;所述获取样本图像中目标对象的目标样本轮廓,以及获取从所述目标样本轮廓中确定的目标轮廓参数,包括:
获取样本图像中目标对象的目标样本轮廓;
按照预设的端点定位策略,获取所述目标样本轮廓上的N个目标端点;
根据所述N个目标端点,将所述目标样本轮廓划分为N条目标分段曲线;
根据每条所述目标分段曲线的参数方程,获取每条所述目标分段曲线对应的目标控制点。
作为一种可选的实施方式,在本申请实施例第一方面中,所述根据所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算所述目标分割模型的损失,包括:
按照预设的损失函数,对所述目标轮廓参数和所述预测轮廓参数计算第一损失,并对所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算第二损失;
结合所述第一损失、所述第一损失对应的第一平衡参数、所述第二损失以及所述第二损失对应的第二平衡参数,计算所述目标分割模型的损失。
本申请实施例第二方面提供一种轮廓提取装置,所述电子设备包括:
获取模块,用于获取待识别图像;
参数分析模块,用于通过训练得到的目标分割模型对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数,并基于所述轮廓参数获得N条分段曲线的分段参数,N为正整数;
曲线解码模块,用于通过所述目标分割模型,并结合曲线方程对每条分段曲线的分段参数进行曲线解码,获得所述N条分段曲线各自对应的轮廓点坐标;
拼接模块,用于将所述N条分段曲线各自对应的轮廓点坐标进行拼接,生成所述目标对象的目标轮廓。
本申请实施例第三方面提供一种电子设备,所述电子设备包括:
一个或多个存储器;
一个或多个处理器,用于执行存储在所述一个或多个存储器中的一个或多个计算机程序,以执行如本申请第一方面所述的方法。
本申请实施例第四方面提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如本申请第一方面所述的方法。
本申请实施例第五方面提供一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如本申请第一方面所述的方法。
与现有技术相比,本申请实施例具有以下有益效果:
在本申请实施例中,采用训练得到的目标分割模型,可以通过对待识别图像中的目标对象进行轮廓分析获得轮廓参数,并基于轮廓参数获得N条分段曲线的分段参数,再通过对分段参数进行曲线解码,获得N条分段曲线各自对应的轮廓点坐标,从而将N条分段曲线各自对应的轮廓点坐标进行拼接,生成目标对象的目标轮廓。可见,本申请实施例能够将轮廓参数统一为目标分割模型的预测目标,有效减少了模型的数据规模及运算量,提高了轮廓提取的运算效率,同时引入了先验知识,使得模型的预测结果具有一致性和平滑性。此外,采用参数曲线的方式对目标对象的轮廓进行建模,能够保留目标对象的曲边等形状信息,使得轮廓表示方式更加简洁统一。并且,通过对多条分段曲线进行曲线解码与拼接,还无需迭代运算实现对复杂轮廓的建模。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例公开的一种轮廓提取方法的流程示意图;
图2是本申请实施例中一种目标分割模型生成目标轮廓的应用示意图;
图3是本申请实施例公开的另一种轮廓提取方法的流程示意图;
图4是本申请实施例公开的又一种轮廓提取方法的流程示意图;
图5是本申请实施例中一种训练目标分割模型的示意图;
图6是本申请实施例中一种目标分割模型生成预测曲线的可视化示意图;
图7是本申请实施例公开的一种轮廓提取装置的结构示意图;
图8是本申请实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书中的术语“第一”、“第二”、“第三”“第四”等是用于区别不同的对象,而不是用于描述特定顺序。本申请实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
目标分割是计算机视觉领域中的一个热门研究方向,其指的是根据灰度、色彩和空间纹理等特征把图像划分成若干个不同区域,使得同一区域内部的像素点具有一致性或者相似性。目标分割技术常用于将目标与背景区域分离,或用于将图像中的不同实例分割出来(即像素级识别对象轮廓的任务)等。
在相关的技术中,主要采用以下两种目标分割方式:
方式一:基于像素点的目标分割方法。通过对图像中每一个像素点进行预测、分类及打上标签,从而提取出特定区域的轮廓。然而,这种方式具有如下几个缺点:当输入图像越大时,需要分析大量的图像像素点,因此运算量较大;在深度学习模型中加入上采样层会使模型变得庞大和臃肿,大大增加了计算量和内存(或显存)容量,降低了模型的处理速度;由于每一个像素点可视作独立个体,在实际应用场景中容易给同一目标中的不同像素点打上不一致的标签,导致输出不平滑的分割边界;输出结果不具有亚像素精度;以及,预测结果很难人工修正。
方式二:基于轮廓的目标分割方法。通过对目标物体的外轮廓建模,从而对目标区域进行分割。然而,这种方式也具有如下缺点:直接使用全部轮廓点坐标表示轮廓,过于密集;对轮廓点进行稀疏采样时用相邻顶点的连线代替曲边,这不能很好地保留目标的形状信息;对于基于主动轮廓法的分割方法(比如DeepSnake),模型需要先预定一个初始轮廓,再对初始轮廓进行迭代修正,但初始轮廓的顶点数选择较为困难,过多的顶点对于简单轮廓存在冗余,且模型迭代修正的方式会成倍增加运算量及处理时间;以及,使用单值函数进行建模,即同一横坐标只对应于一个纵坐标,故无法建模圆形等复杂轮廓。
本申请实施例公开了一种轮廓提取方法及装置、电子设备、存储介质,能够提高轮廓提取的效率。该方法可适用于手机、智能穿戴设备、平板电脑、个人计算机(PersonalComputer,PC)等电子设备,本申请实施例不做限定。以下结合附图进行详细描述。
请参阅图1,图1是本申请实施例公开的一种轮廓提取方法的流程示意图。如图1所示,该方法包括以下步骤:
101、获取待识别图像。
本申请实施例可应用于人脸识别、交通控制系统、卫星图像物体定位、行人检测以及医学影像处理等多种图像分割应用场景。其中,待识别图像可以是包含至少一个可识别的目标对象的图像。目标对象可以是任意具有特定性质(包括形状、灰度及纹理等)的对象,比如医学影像的肿瘤及器官、组织等其他病理定位对象、交通检测场景的车辆以及人脸识别场景的人脸五官等。图像格式可以包括位图格式(bitmap,BMP)、联合图像专家组(jointphotographic experts group,JPEG)、便携式网络图形(portable network graphics,PNG)、标签图像文件格式(tag image file format,TIFF)以及医学数字成像和通信格式(digital imaging and communications in medicine,DICOM)等,对此不作具体限定。示例性的,待识别图像可以是一张患者鼻咽部的核磁共振成像图(magnetic resonanceimaging,MRI),MRI图中的肿瘤病灶区域即为可识别的目标对象。
102、通过训练得到的目标分割模型对待识别图像中的目标对象进行轮廓分析,得到轮廓参数,并基于轮廓参数获得N条分段曲线的分段参数,N为正整数。
在本申请实施例中,轮廓参数可用于描述目标对象的轮廓形状。轮廓参数可以用于确定N条分段曲线各自对应的分段参数,而每个分段参数可以包括至少两个顶点的坐标,不作具体限定。这些顶点可用于确定相应分段曲线的导数、阶次和形状。
在本申请实施例中,分段曲线可以采用参数曲线,而参数曲线是利用参数方程表示的曲线。采用参数曲线对目标对象的轮廓进行拟合,可以获得用于确定轮廓的参数方程。本申请实施例采用的参数曲线可以包括贝塞尔曲线(Bezier curve)、B样条曲线(B-splinecurve)或非均匀有理B样条曲线(non uniform rational b-spline,NURBS)等,对此不作具体限定。可选的,本申请实施例使用参数方程来描述目标对象的轮廓点坐标,具体表达式(1)如下:
(1)x=f(t),y=g(t),z=h(t)
其中,x、y和z分别为轮廓点的x轴坐标、y轴坐标和z轴坐标,t为不同轮廓点对应的采样系数。可见,这种轮廓坐标表示方式更加灵活,允许出现多值,能够表示更加复杂的目标轮廓。
基于此,以大量图像样本作为训练数据,获得图像样本中对目标对象轮廓的轮廓参数,再对轮廓参数进行曲线解码,获得目标对象轮廓作为训练结果输出,从而根据训练结果与目标对象的实际轮廓之间的匹配情况不断调整目标分割模型的参数,训练得到目标分割模型。目标分割模型将深度学习与参数化表示相结合,把目标分割任务当作回归任务,直接回归出目标对象的轮廓参数,能够适用于广泛的分割对象,属于端到端的深度学习模型,实现简单,运行高效,且无需做额外的特征工程。
103、通过目标分割模型,并结合曲线方程对每条分段曲线的分段参数进行曲线解码,获得N条分段曲线各自对应的轮廓点坐标。
在本申请实施例中,曲线方程可以包括各分段曲线的参数方程。分段曲线的参数方程可用于定义分段参数与分段曲线上各轮廓点坐标的函数关系。步骤103中,针对每条分段曲线求得的轮廓点坐标与预设采样策略有关。预设采样策略可以包括采样方式和采样点数,其中采样方式可以包括但不限于随机采样和均匀采样等。每条分段曲线对应的轮廓点坐标数目可以与预设的采样点数一致,比如72个,或者每条分段曲线对应的轮廓点坐标数目可以不相同,对此不作具体限定。
104、将N条分段曲线各自对应的轮廓点坐标进行拼接,生成目标对象的目标轮廓。
请参阅图2,图2是本申请实施例中一种目标分割模型生成目标轮廓的应用示意图。如图2所示,将肿瘤图像输入目标分割模型后,目标分割模型可以对肿瘤图像中的肿瘤病灶区域进行轮廓分析,获得四组分段参数,且每组分段参数可以包括6个顶点。之后,目标分割模型还可以分别对四组分组参数进行曲线解码,获得分段曲线201、分段曲线202、分段曲线203和分段曲线204。最终,输出四条分段曲线拼接而成的目标轮廓。可见,对多条独立的分段曲线进行曲线解码与拼接,实现了还原复杂轮廓曲线的效果。
可见,实施上述方法实施例,能够将分段曲线轮廓参数统一为目标分割模型的预测目标,有效减少了模型的数据规模及运算量,提高了轮廓提取的运算效率,同时引入了先验知识,使得模型的预测结果具有一致性和平滑性。此外,采用参数曲线的方式对目标对象的轮廓进行建模,能够保留目标对象的曲边等形状信息,使得轮廓表示方式更加简洁统一。并且,通过对多条分段曲线进行曲线解码与拼接,还无需迭代运算实现对复杂轮廓的建模。
请参阅图3,图3是本申请实施例公开的另一种轮廓提取方法的流程示意图。在本申请实施例中,训练得到的目标分割模型可以包括分类神经网络和解码器。如图3所示,该方法包括以下步骤:
301、获取待识别图像。
302、将待识别图像输入分类神经网络,通过分类神经网络对待识别图像中的目标对象进行轮廓参数分析,得到轮廓参数,轮廓参数包括M个控制点和N个端点。
在本申请实施例中,M为正整数。分类神经网络可以采用残差网络(residualnetwork,ResNet)50、ResNet-101或MobileNet等卷积神经网络(convolutional neuralnetworks,CNN),对此不作具体限定。可选的,针对实时性要求较高的应用场景,分类神经网络可以采用MobileNet等轻量型的分类网络,而针对精度要求较高的应用场景,分类神经网络可以采用ResNet-101等分类网络。
常见的卷积神经网络通常可以包括输入层、隐含层和输出层,而在本申请实施例中,分类神经网络只包括输入层和隐含层,不包括输出层。其中:输入层可用于对输入的待识别图像数据进行去均值和归一化等预处理;隐含层可以包括卷积层、池化层和全连接层,卷积层用于对图像数据进行轮廓特征提取,其内部包含多个卷积核,组成卷积核的每个元素都对应一个权重系数和一个偏差量(bias vector),故卷积核可对轮廓特征做矩阵元素乘法求和并叠加偏差量;池化层用于对卷积层输出的特征图进行特征选择和信息过滤,且池化层包含预设定的池化函数,其功能是将特征图中单个点的结果替换为其相邻区域的特征图统计量;全连接层用于对池化层提取的特征进行非线性组合以得到目标轮廓上控制点和端点的坐标,且全连接层的总层数可以为至少一层,不作具体限定。
传统卷积神经网络在全连接层的下游设有输出层,用于使用逻辑函数或归一化指数函数(softmax function)输出分类结果,而本申请实施例中分类神经网络的隐含层中最后一层全连接层的节点数为(M+N)*D,D为维度故分类神经网络可以通过(M+N)*D个全连接层节点直接输出M个控制点的坐标和N个端点的坐标。示例性的,针对二维坐标(x,y),D=2;针对三维坐标(x,y,z),D=3。可见,这样无需继续执行分类及归一化处理,而是利用参数曲线的优势,根据M个控制点和N个端点生成目标轮廓。
在本申请实施例中,可以采用贝塞尔曲线来确定轮廓参数。贝塞尔曲线可以根据四个任意位置的控制点绘制出一条矢量曲线,并且通过调整控制点,贝塞尔曲线的形状会发生变化。基于此,两个端点可确定一条贝塞尔曲线的起始点和终止点,而多个控制点可控制贝塞尔曲线的弯曲轨迹,满足以下参数方程(2):
(2)
Figure BDA0002687677090000101
其中,B(t)为贝塞尔曲线的参数方程,n+1为控制点总数,
Figure BDA0002687677090000102
是二项式系数,Pi=(x,y)或Pi=(x,y,z)是第i个控制点,t为采样系数。
可见,采用分类神经网络获得用于确定目标轮廓的控制点和端点,且无需上采样层,能够有效减少模型的参数量,参数量的减少使得模型不容易过拟合,更加适用于小样本数据量的应用场景。
此外,在应用系统部署时,包含目标分割模型的后端服务器也可以将模型预测的轮廓参数发送给前端,再由前端根据轮廓参数直接绘制出目标轮廓。此时,由于模型预测的轮廓参数比较少,故容易对轮廓参数进行存储,且轮廓参数占用较少的网络传输带宽,提高了数据传输速度。
303、通过解码器,根据N个端点对M个控制点进行分类,确定N条分段曲线各自对应的控制点。
在本申请实施例中,解码器可以为贝塞尔形状解码器。
在本申请实施例中,目标对象的轮廓可以为闭合曲线,且两个端点可确定一条分段曲线的起始点和终止点,故N个端点可确定N条分段曲线。进一步地,每条分段曲线可对应于M/N个控制点。
示例性的,结合图2来看,图2所示的轮廓参数包括4个端点o、p、q和r,因此可以确定4条分段曲线,且分段曲线201的两个端点为端点o和端点p,分段曲线202的两个端点为端点p和端点q,分段曲线203的两个端点为端点q和端点r,分段曲线204的两个端点为端点r和端点o。此外,针对轮廓参数包括的16个控制点(不包括4个端点处对应的控制点),按照控制点与各端点之间的位置关系,16个控制点可分为4组控制点,使得4组控制点与4条分段曲线一一对应。
304、按照预设采样策略获取每条分段曲线上多个轮廓点对应的求解系数矩阵。
在本申请实施例中,求解系数矩阵用于表示分段曲线对应的控制点的坐标与分段曲线上轮廓点坐标之间的求解关系。作为一种可选的实施方式,预设采样策略可以包括:分段曲线上每个轮廓点坐标对应的采样系数与采样的轮廓点总数S满足
Figure BDA0002687677090000111
S为正整数,ti为分段曲线上第i个轮廓点坐标对应的采样系数。结合各轮廓点坐标的索引以及贝塞尔曲线的定义,可获得分段曲线的参数方程(3):
(3)
Figure BDA0002687677090000112
其中,n为阶数,
Figure BDA0002687677090000113
为组合数,(xi,yi,zi)为控制点的坐标Pi
Figure BDA0002687677090000114
为分段曲线上的轮廓点坐标。
进一步地,参数方程还可以简写为:Ac=b,其中A为求解系数矩阵,c为所有控制点的坐标的矩阵,b为分段曲线上S个轮廓点的坐标的矩阵,且
Figure BDA0002687677090000115
Figure BDA0002687677090000121
再进一步地,根据求解系数矩阵A的伪逆,获得控制点的坐标的矩阵c=A-1b。
可见,根据每条分段曲线上的轮廓点总数,便可快速获得相应的求解系数矩阵A。
305、通过解码器,并结合曲线方程将每条分段曲线对应的求解系数矩阵和控制点进行曲线解码,获得每条分段曲线对应的多个轮廓点坐标。
在本申请实施例中,将每条分段曲线对应的控制点的坐标以及根据随机采样或均匀采样等采样方式获得的ti代入上述参数方程Ac=b,即可快速求得每条分段曲线上由控制点和端点控制的一连串轮廓点坐标。
306、将N条分段曲线各自对应的多个轮廓点坐标进行拼接,生成目标对象的目标轮廓。
作为一种可选的实施方式,步骤306具体可以为:将每条分段曲线对应的多个轮廓点坐标进行连接,生成N条分段曲线,再将N条分段曲线中满足拼接条件的任意两条分段曲线进行拼接,生成目标对象的目标轮廓,其中,拼接条件包括两条分段曲线上至少存在一个相同的端点。
示例性的,再结合图2来看,如图2所示,分段曲线201和分段曲线202存在一个相同的端点p,故分段曲线201和分段曲线202满足拼接条件,分段曲线201可以通过端点p与分段曲线202拼接。
可见,解码器能够为重建出目标轮廓提供图形处理器(graphics processingunit,GPU)加速功能,并且,参数化的分段曲线生成方式能够满足亚像素精度,还便于对模型预测的目标轮廓进行后期调整。可选的,目标分割模型输出的目标轮廓可以以矢量图的方式进行呈现。当检测到对目标轮廓对应的任意控制点的拖动操作,还可以根据拖动操作改变控制点的坐标,从而根据改变后的控制点的坐标对目标轮廓进行修正,操作方便且灵活。
可见,实施上述方法实施例,能够将分段曲线轮廓参数统一为目标分割模型的预测目标,有效减少了模型的数据规模及运算量,提高了轮廓提取的运算效率,同时引入了先验知识,使得模型的预测结果具有一致性和平滑性。此外,采用参数曲线的方式对目标对象的轮廓进行建模,能够保留目标对象的曲边等形状信息,使得轮廓表示方式更加简洁统一。并且,通过对多条分段曲线进行曲线解码与拼接,还无需迭代运算实现对复杂轮廓的建模。
请参阅图4,图4是本申请实施例公开的又一种轮廓提取方法的流程示意图。在本申请实施例中,训练得到的目标分割模型可以包括分类神经网络和解码器。如图4所示,该方法包括以下步骤:
401、获取样本图像中目标对象的目标样本轮廓,以及获取从目标样本轮廓中确定的目标轮廓参数。
在本申请实施例中,可以先利用不同目标对象的掩膜,从样本图像中提取出目标对象的目标样本轮廓。掩膜用于从样本图像中提取出目标对象对应的轮廓线区域,并遮挡样本图像中除轮廓线区域之外的非轮廓线区域。掩膜可以为二维矩阵数组,且可以与样本图像执行与、或、非等位运算。可选的,可以先将目标对象的掩膜大小调整至与样本图像的大小一致,则目标对象的掩膜中,轮廓线区域对应的图像值可以为1,而非轮廓线区域对应的图像值可以为0,从而与样本图像进行与运算。
在本申请实施例中,目标轮廓参数包括N个目标端点和M个目标控制点。作为一种可选的实施方式,步骤401具体可以为:获取样本图像中目标对象的目标样本轮廓,并按照预设的端点定位策略,获取目标样本轮廓上的N个目标端点。之后,根据N个目标端点,将目标样本轮廓划分为N条目标分段曲线。最后,根据每条目标分段曲线的参数方程,获取每条目标分段曲线对应的目标控制点。
在一种实现方式中,预设的端点定位策略可以包括在目标样本轮廓上指定位置处确定N个目标端点。示例性的,指定位置可以是目标样本轮廓上的最上边顶点、最下边顶点、最左边顶点和最右边顶点。或者,在另一种实现方式中,若目标样本轮廓上存在多个右侧顶点(或左侧顶点),则可以选取目标样本轮廓上最靠近右上侧的顶点、最靠近左上侧的顶点、最靠近右下侧的顶点以及最靠近左下侧的顶点。
可见,在模型训练阶段,不同的端点定位策略能够实现对曲线轮廓的灵活分割。
402、将样本图像输入到分类神经网络进行轮廓分析,获得预测轮廓参数。
在本申请实施例中,可先通过大量的样本图像对分类神经网络进行训练,使其具备识别图像中目标对象的目标轮廓,并且获取目标轮廓对应的轮廓参数的能力。之后,分类神经网络输出的预测轮廓参数输入至解码器,以实现解码器与分类神经网络的功能拟合。可见,相对于使用单个神经网络构建模型,分类神经网络与解码器的独立功能实现可减小模型的复杂度,从而构建更加灵活的模型结构。
403、将目标轮廓参数和预测轮廓参数分别输入到解码器进行曲线解码,获得目标轮廓参数所对应轮廓曲线上的多个目标轮廓点坐标和预测轮廓参数所对应轮廓曲线上的多个预测轮廓点坐标。
在本申请实施例中,在模型训练阶段对目标轮廓参数和预测轮廓参数进行曲线解码的具体实现方式可参照图3所对应方法实施例中对步骤303~305的描述,此处不再赘述。
404、根据多个目标轮廓点坐标和多个预测轮廓点坐标计算目标分割模型的损失,并根据损失调整目标分割模型的参数。
可见,实施上述步骤401~步骤404,解码器还可以为模型的训练提供额外的损失监督信号,从而不断地提高与完善目标分割模型的可靠性及准确性。
作为一种可选的实施方式,步骤404具体可以为:按照预设的损失函数,对目标轮廓参数和预测轮廓参数计算第一损失,并对多个目标轮廓点坐标和多个预测轮廓点坐标计算第二损失,再结合第一损失、第一损失对应的第一平衡参数、第二损失以及第二损失对应的第二平衡参数,计算目标分割模型的损失。
可选的,计算解码器损失的公式(4)可以为:
(4)L=αLce+βLmatchlng
其中,L为目标分割模型的损失,α为第一平衡参数,β为第二平衡参数,Lce为第一损失,Lmatchlng为第二损失。α和β的取值均可以为1.0,对此不作具体限定。Lce和Lmatchlng可以采用均方误差(mean square error,MSE)函数、平方误差(mean absolute error,MAE)函数、L1损失函数、L2损失函数或smooth L1损失函数等损失函数,亦不作具体限定。还可选的,当Lce和Lmatchlng选用的损失函数为smooth L1损失函数时,损失函数可以满足:
Figure BDA0002687677090000151
可见,结合分类神经网络输出的轮廓参数误差以及解码器输出的轮廓点坐标误差,计算目标分割模型的损失,能够对整个目标分割模型进行适应性调整,从而提高目标分割模型的鲁棒性和稳定性。
请参阅图5,图5是本申请实施例中一种训练目标分割模型的示意图。如图5所示,将多个样本图像501输入分类神经网络,则可以获得分类神经网络对每个样本图像获取的预测轮廓参数502,即多个控制点和端点。之后,将预测轮廓参数502输入到解码器,即可获得解码器输出的多个预测轮廓点坐标,并根据多个预测轮廓点坐标生成每个样本图像中的目标样本轮廓,即如图5所示的轮廓503、504和505。此外,在模型训练的过程中,还可以根据从每个样本图像中获取的目标轮廓参数506以及预测轮廓参数502,构建第一损失。并且,将目标轮廓参数506输入解码器,获得解码器输出的多个目标轮廓点坐标,再根据多个目标轮廓点坐标与多个预测轮廓点坐标构建第二损失,从而根据第一损失和第二损失调整模型参数。
步骤405~步骤410,可以参照图3所示方法实施例中对步骤301~步骤306的描述,此处不再赘述。
可见,实施上述方法实施例,能够将分段曲线轮廓参数统一为目标分割模型的预测目标,有效减少了模型的数据规模及运算量,提高了轮廓提取的运算效率,同时引入了先验知识,使得模型的预测结果具有一致性和平滑性。此外,采用参数曲线的方式对目标对象的轮廓进行建模,能够保留目标对象的曲边等形状信息,使得轮廓表示方式更加简洁统一。并且,通过对多条分段曲线进行曲线解码与拼接,还无需迭代运算实现对复杂轮廓的建模。
为了更好地理解本申请实施例目标分割模型的实际性能,以下结合目标分割模型的实验数据进行描述。
请参阅表1,表1是数据集交并比统计表,用于统计利用轮廓参数表示样本集(包括上消化道内镜图像数据集Endo、鼻咽癌MRI图像数据集NPC和皮肤癌图像数据集ISIC)中目标轮廓形状的数据处理结果。如表1所示,平均交并比(mean intersection over union,MIOU)用于表示利用轮廓参数表示目标对象轮廓形状的测试集与每个样本集对应的验证集(即真实掩膜)之间的平均交并比,交并比标准差(standard intersection over union,SIOU)用于表示测试集与每个样本集对应的验证集之间的交并比标准差。由表1可以看出,利用轮廓参数可以维持较高的MIOU,且具有较低的SIOU,这说明参数化表示方式可以稳定可靠地对目标对象的轮廓进行描述。
表1数据集交并比统计表
数据集 样本集样本量 验证集样本量 测试集样本量 MIOU SIOU
Endo 30762 3845 3846 0.970 0.019
NPC 1869 234 234 0.869 0.056
ISIC 2060 258 258 0.957 0.021
进一步地,请参阅表2,表2是曲线交并比统计表。如表2所示,以DeepLabv3+ResNet101模型(一个基于像素点的目标分割模型)作为基线模型进行对比,分别利用基线模型和本申请实施例中的目标分割模型对Endo、NPC和ISIC样本集随机进行三次实验,从而根据实验结果评估MIOU。其中,DeepLabv3+ResNet101模型缩写为DeepLab,本申请实施例中的目标分割模型缩写为BezierMask,curvemiou是预测曲线与标签曲线的平均交并比,maskmiou是预测曲线与各样本集对应的目标掩膜的平均交并比,预测曲线是将各样本集输入目标分割模型后获得的轮廓曲线,标签曲线根据从目标掩膜中提取的轮廓曲线对应的所有控制点和端点所生成,Y表示使用贝塞尔形状解码器,N表示不使用贝塞尔形状解码器。
表2曲线交并比统计表
Figure BDA0002687677090000161
Figure BDA0002687677090000171
由表2可看出,本申请实施例中的目标分割模型能够达到与基于像素点的目标分割模型(即DeepLabv3+ResNet101模型)相近的分割性能,且在鼻咽癌NPC样本集上甚至超过了DeepLabv3+ResNet101模型,这说明本申请实施例中的目标分割模型是一个有效的目标分割模型。
为了更好地理解目标分割模型生成预测曲线的可视化效果,请参阅图6,图6是本申请实施例中一种目标分割模型生成预测曲线的可视化示意图。如图6所示,利用目标分割模型生成的预测曲线601相对于DeepLabv3+ResNet101模型输出的预测曲线602更加平滑,且预测曲线的区域为一个整体,区域内部不会出现不一致的点。
再进一步地,请参阅表3,表3是参数规模统计表。如表3所示,由于本申请实施例中的目标分割模型无需上采样层,因此目标分割模型相较于DeepLabv3+ResNet101模型减少了参数量。参数量的减少使得模型不容易过拟合,更加适用于小样本数据量的应用场景。
表3参数规模统计表
模型 参数量
DeepLab 58625857
BezierMask 42582120
此外,通过对DeepLabv3+ResNet101模型和本申请实施例中的目标分割模型进行速度测试,获得如表4所示的帧率分析表。其中,测试环境为单张TeslaV100显卡,测试内容包括模型计算(无后处理)和模型计算加目标重建(有后处理)两个部分。
表4帧率统计表
模型 帧率(无后处理) 帧率(有后处理)
DeepLab 48.42 45.60
BezierMask 111.56 98.01
由表4可以看出,目标分割模型比DeepLabv3+ResNet101模型的帧率快了接近一倍,说明目标分割模型能够达到实时处理的要求,尤其在计算力受限的边缘计算设备中进行部署时更具有优势。
上述对本申请实施例中轮廓提取方法进行了说明,下面对本申请实施例中的电子设备进行说明。
请参阅图7,图7是本申请实施例公开的一种轮廓提取装置的结构示意图。如图7所示,该轮廓提取装置包括获取模块701、参数分析模块702、曲线解码模块703以及拼接模块704,其中:
获取模块701,用于获取待识别图像。
参数分析模块702,用于通过训练得到的目标分割模型对待识别图像中的目标对象进行轮廓分析,得到轮廓参数,并基于轮廓参数获得N条分段曲线的分段参数,N为正整数。
曲线解码模块703,用于通过目标分割模型,并结合曲线方程对每条分段曲线的分段参数进行曲线解码,获得N条分段曲线各自对应的轮廓点坐标。
拼接模块704,用于将N条分段曲线各自对应的轮廓点坐标进行拼接,生成目标对象的目标轮廓。
在本申请实施例中,作为一种可选的实施方式,轮廓参数包括M个控制点和N个端点,M为正整数,目标分割模型包括解码器。参数分析模块702,还用于通过解码器,根据N个端点对M个控制点进行分类,确定N条分段曲线各自对应的控制点。获取模块701还用于按照预设采样策略获取每条分段曲线上多个轮廓点对应的求解系数矩阵。曲线解码模块703还用于通过解码器,并结合曲线方程将每条分段曲线对应的求解系数矩阵和控制点进行曲线解码,获得每条分段曲线对应的多个轮廓点坐标。
在本申请实施例中,作为一种可选的实施方式,拼接模块704还用于将每条分段曲线对应的多个轮廓点坐标进行连接,生成N条分段曲线,再将N条分段曲线中满足拼接条件的任意两条分段曲线进行拼接,生成目标对象的目标轮廓;其中,拼接条件包括两条分段曲线上至少存在一个相同的端点。
在本申请实施例中,作为一种可选的实施方式,目标分割模型还包括分类神经网络。参数分析模块702还用于将待识别图像输入分类神经网络,通过分类神经网络对待识别图像中的目标对象进行轮廓分析,得到轮廓参数;其中,分类神经网络包括输入层和隐含层,隐含层中最后一层全连接层的节点数为(M+N)*D,D为维度。
在本申请实施例中,作为一种可选的实施方式,目标分割模型包括分类神经网络和解码器。该电子设备还可以包括模型训练模块,模型训练模块用于在参数分析模块702通过训练得到的目标分割模型对待识别图像中的目标对象进行轮廓分析之前,获取样本图像中目标对象的目标样本轮廓以及获取从目标样本轮廓中确定的目标分段轮廓参数;将样本图像输入到分类神经网络进行轮廓参数分析,获得从样本图像中提取的预测轮廓分段参数;将目标分段轮廓参数和预测分段轮廓参数分别输入到解码器进行曲线解码,获得目标轮廓参数所对应轮廓曲线上的多个目标轮廓点坐标和预测轮廓参数所对应轮廓曲线上的多个预测轮廓点坐标;根据多个目标轮廓点坐标和多个预测轮廓点坐标计算目标分割模型的损失,并根据目标分割模型的损失调整目标分割模型的参数。
进一步地,作为一种可选的实施方式,目标轮廓参数包括N个目标端点和M个目标控制点。模型训练模块,还用于获取样本图像中目标对象的目标样本轮廓;按照预设的端点定位策略,获取目标样本轮廓上的N个目标端点;根据N个目标端点,将目标样本轮廓划分为N条目标分段曲线;根据每条目标分段曲线的参数方程,获取每条目标分段曲线对应的目标控制点。
进一步地,作为一种可选的实施方式,模型训练模块,还用于按照预设的损失函数,对目标轮廓参数和预测轮廓参数计算第一损失,并对多个目标轮廓点坐标和多个预测轮廓点坐标计算第二损失;结合第一损失、第一损失对应的第一平衡参数、第二损失以及第二损失对应的第二平衡参数,计算目标分割模型的损失。
需要说明的是,本实施例的具体实现过程可参见上述方法实施例所述的具体实现过程,在此不再叙述。
实施上述实施例,能够将分段曲线轮廓参数统一为目标分割模型的预测目标,有效减少了模型的数据规模及运算量,提高了轮廓提取的运算效率,同时引入了先验知识,使得模型的预测结果具有一致性和平滑性。此外,采用参数曲线的方式对目标对象的轮廓进行建模,能够保留目标对象的曲边等形状信息,使得轮廓表示方式更加简洁统一。并且,通过对多条分段曲线进行曲线解码与拼接,还无需迭代运算实现对复杂轮廓的建模。
请参阅图8,图8是本申请实施例公开的一种电子设备的结构示意图。该电子设备包括:
一个或多个存储器801;
一个或多个处理器802,用于执行存储在一个或多个存储器801中的一个或多个计算机程序,以执行上述各实施例中描述的方法。
需要说明的是,本实施例的具体实现过程可参见上述方法实施例所述的具体实现过程,在此不再叙述。
本申请实施例提供一种计算机可读存储介质,其上存储有计算机指令,该计算机指令运行时使计算机执行上述方法实施例所描述的轮廓提取方法。
本申请实施例还公开一种计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行如以上各方法实施例中的方法的部分或全部步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(read-only memory,ROM)、随机存储器(random access memory,RAM)、可编程只读存储器(programmable read-only memory,PROM)、可擦除可编程只读存储器(erasable programmable read only memory,EPROM)、一次可编程只读存储器(one-time programmable read only memory,OTPROM)、电子抹除式可复写只读存储器(electrically-erasable programmable read-only memory,EEPROM)、只读光盘(compactdisc read-only memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本申请实施例公开的一种轮廓提取方法及装置、电子设备、存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (8)

1.一种轮廓提取方法,其特征在于,所述方法包括:
获取待识别图像;
通过训练得到的目标分割模型对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数,所述轮廓参数包括M个控制点和O个端点,M、O为正整数,所述目标分割模型包括分类神经网络和解码器;
通过所述解码器,根据所述O个端点对所述M个控制点进行分类,确定N条分段曲线各自对应的控制点,N为正整数;
按照预设采样策略获取每条所述分段曲线上多个轮廓点对应的求解系数矩阵;通过所述解码器,并结合曲线方程将每条所述分段曲线对应的求解系数矩阵和控制点进行曲线解码,获得每条所述分段曲线对应的多个轮廓点坐标;
将所述N条分段曲线各自对应的轮廓点坐标进行拼接,生成所述目标对象的目标轮廓;
所述获取待识别图像之前,所述方法还包括:
获取样本图像中目标对象的目标样本轮廓,以及获取从所述目标样本轮廓中确定的目标轮廓参数;将所述样本图像输入到所述分类神经网络进行轮廓分析,获得预测轮廓参数;将所述目标轮廓参数和所述预测轮廓参数分别输入到所述解码器进行曲线解码,获得所述目标轮廓参数所对应轮廓曲线上的多个目标轮廓点坐标和所述预测轮廓参数所对应轮廓曲线上的多个预测轮廓点坐标;根据所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算所述目标分割模型的损失,并根据所述损失调整所述目标分割模型的参数。
2.根据权利要求1所述的方法,其特征在于,所述将所述N条分段曲线各自对应的轮廓点坐标进行拼接,生成所述目标对象的目标轮廓,包括:
将每条所述分段曲线对应的多个轮廓点坐标进行连接,生成N条分段曲线;
将所述N条分段曲线中满足拼接条件的任意两条分段曲线进行拼接,生成所述目标对象的目标轮廓;其中,所述拼接条件包括两条分段曲线上至少存在一个相同的端点
3.根据权利要求1或2所述的方法,其特征在于,所述通过训练得到的目标分割模型对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数,包括:
将所述待识别图像输入所述分类神经网络,通过所述分类神经网络对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数;其中,所述分类神经网络包括输入层和隐含层,所述隐含层中最后一层全连接层的节点数为(M+O)*D,D为维度。
4.根据权利要求1所述的方法,其特征在于,所述目标轮廓参数包括P个目标端点和Q个目标控制点;所述获取样本图像中目标对象的目标样本轮廓,以及获取从所述目标样本轮廓中确定的目标轮廓参数,包括:
获取样本图像中目标对象的目标样本轮廓;
按照预设的端点定位策略,获取所述目标样本轮廓上的P个目标端点;
根据所述P个目标端点,将所述目标样本轮廓划分为R条目标分段曲线;
根据每条所述目标分段曲线的参数方程,获取每条所述目标分段曲线对应的目标控制点。
5.根据权利要求1所述的方法,其特征在于,所述根据所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算所述目标分割模型的损失,包括:
按照预设的损失函数,对所述目标轮廓参数和所述预测轮廓参数计算第一损失,并对所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算第二损失;
结合所述第一损失、所述第一损失对应的第一平衡参数、所述第二损失以及所述第二损失对应的第二平衡参数,计算所述目标分割模型的损失。
6.一种轮廓提取装置,其特征在于,所述装置包括:
获取模块,用于获取待识别图像;
参数分析模块,用于通过训练得到的目标分割模型对所述待识别图像中的目标对象进行轮廓分析,得到轮廓参数,所述轮廓参数包括M个控制点和O个端点,M、O为正整数,所述目标分割模型包括分类神经网络和解码器;
所述参数分析模块,还用于通过所述解码器,根据所述O个端点对所述M个控制点进行分类,确定N条分段曲线各自对应的控制点,N为正整数;
所述获取模块,还用于按照预设采样策略获取每条所述分段曲线上多个轮廓点对应的求解系数矩阵;
曲线解码模块,用于通过所述解码器,并结合曲线方程将每条所述分段曲线对应的求解系数矩阵和控制点进行曲线解码,获得每条所述分段曲线对应的多个轮廓点坐标;
拼接模块,用于将所述N条分段曲线各自对应的轮廓点坐标进行拼接,生成所述目标对象的目标轮廓;
模型训练模块,用于在所述获取模块获取待识别图像之前,获取样本图像中目标对象的目标样本轮廓,以及获取从所述目标样本轮廓中确定的目标轮廓参数;将所述样本图像输入到所述分类神经网络进行轮廓分析,获得预测轮廓参数;将所述目标轮廓参数和所述预测轮廓参数分别输入到所述解码器进行曲线解码,获得所述目标轮廓参数所对应轮廓曲线上的多个目标轮廓点坐标和所述预测轮廓参数所对应轮廓曲线上的多个预测轮廓点坐标;根据所述多个目标轮廓点坐标和所述多个预测轮廓点坐标计算所述目标分割模型的损失,并根据所述损失调整所述目标分割模型的参数。
7.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现如权利要求1至5任一所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一所述的方法。
CN202010981470.6A 2020-09-17 2020-09-17 一种轮廓提取方法及装置、电子设备、存储介质 Active CN112183541B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010981470.6A CN112183541B (zh) 2020-09-17 2020-09-17 一种轮廓提取方法及装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010981470.6A CN112183541B (zh) 2020-09-17 2020-09-17 一种轮廓提取方法及装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN112183541A CN112183541A (zh) 2021-01-05
CN112183541B true CN112183541B (zh) 2023-04-18

Family

ID=73921584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010981470.6A Active CN112183541B (zh) 2020-09-17 2020-09-17 一种轮廓提取方法及装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN112183541B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113536968B (zh) * 2021-06-25 2022-08-16 天津中科智能识别产业技术研究院有限公司 一种自动获取虹膜内外圆边界坐标的方法
CN113820254B (zh) * 2021-08-30 2022-06-21 中国石油大学(北京) 微颗粒质量确定方法、装置、电子设备及存储介质
CN114445421B (zh) * 2021-12-31 2023-09-29 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 一种鼻咽癌淋巴结区域的识别分割方法、装置及系统
CN114049494B (zh) * 2022-01-13 2022-04-22 安徽高哲信息技术有限公司 粮食籽粒标注方法及设备、存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894370A (zh) * 2010-07-14 2010-11-24 苏州大学 具有形状参数自适应的甲骨文轮廓字形自动生成方法
CN103313053A (zh) * 2013-05-14 2013-09-18 浙江万里学院 一种面向视觉对象的形状编码方法
WO2015172679A1 (zh) * 2014-05-14 2015-11-19 华为技术有限公司 一种图像处理方法和装置
CN105787972A (zh) * 2016-03-16 2016-07-20 中山大学 一种基于lcv模型的图像轮廓编码方法及系统
CN110731817A (zh) * 2019-10-11 2020-01-31 浙江大学 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法
WO2020052352A1 (zh) * 2018-09-10 2020-03-19 阿里巴巴集团控股有限公司 用于对车辆损伤图像进行损伤分割的方法及装置
CN111383353A (zh) * 2020-04-01 2020-07-07 大连理工大学 基于高斯混合模型和轮廓描述子的断骨模型配准方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894370A (zh) * 2010-07-14 2010-11-24 苏州大学 具有形状参数自适应的甲骨文轮廓字形自动生成方法
CN103313053A (zh) * 2013-05-14 2013-09-18 浙江万里学院 一种面向视觉对象的形状编码方法
WO2015172679A1 (zh) * 2014-05-14 2015-11-19 华为技术有限公司 一种图像处理方法和装置
CN105787972A (zh) * 2016-03-16 2016-07-20 中山大学 一种基于lcv模型的图像轮廓编码方法及系统
WO2020052352A1 (zh) * 2018-09-10 2020-03-19 阿里巴巴集团控股有限公司 用于对车辆损伤图像进行损伤分割的方法及装置
CN110731817A (zh) * 2019-10-11 2020-01-31 浙江大学 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法
CN111383353A (zh) * 2020-04-01 2020-07-07 大连理工大学 基于高斯混合模型和轮廓描述子的断骨模型配准方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Snake模型和遗传算法在特殊焊缝提取中的应用;吴鑫等;《焊接学报》;20180925(第09期);全文 *
结构光测量系统光条中心提取算法研究;梅峻华等;《电子测量技术》;20181108(第21期);全文 *

Also Published As

Publication number Publication date
CN112183541A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN112183541B (zh) 一种轮廓提取方法及装置、电子设备、存储介质
CN109859296B (zh) Smpl参数预测模型的训练方法、服务器及存储介质
Zhou et al. Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method
CN111598998B (zh) 三维虚拟模型重建方法、装置、计算机设备和存储介质
WO2020119527A1 (zh) 人体动作识别方法、装置、终端设备及存储介质
US20230104173A1 (en) Method and system for determining blood vessel information in an image
Chen et al. Semantic image segmentation with deep convolutional nets and fully connected crfs
Kim et al. Feature detection of triangular meshes based on tensor voting theory
Tareef et al. Optimizing the cervix cytological examination based on deep learning and dynamic shape modeling
CN112288011B (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN113313234A (zh) 用于图像分割的神经网络系统和方法
US11562491B2 (en) Automatic pancreas CT segmentation method based on a saliency-aware densely connected dilated convolutional neural network
CN110599528A (zh) 一种基于神经网络的无监督三维医学图像配准方法及系统
CN112150428A (zh) 一种基于深度学习的医学图像分割方法
WO2021136368A1 (zh) 钼靶图像中胸大肌区域自动检测方法及装置
CN113763314A (zh) 使用深度降低卷积神经网络进行图像分割和分类的系统和方法
CN112308866A (zh) 图像处理方法、装置、电子设备及存储介质
CN110570394A (zh) 医学图像分割方法、装置、设备及存储介质
Kang et al. Competitive learning of facial fitting and synthesis using uv energy
CN113450359A (zh) 医学图像分割、显示、模型训练方法、系统、设备和介质
CN114092450A (zh) 一种基于胃镜检查视频的实时图像分割方法、系统、装置
CN110717978B (zh) 基于单张图像的三维头部重建方法
Xue et al. Lung 4D CT image registration based on high-order markov random field
CN114445715A (zh) 一种基于卷积神经网络的农作物病害识别方法
Liu et al. Extracting lungs from CT images via deep convolutional neural network based segmentation and two-pass contour refinement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: No. 651, Dongfeng East Road, Yuexiu District, Guangzhou, Guangdong 510060

Applicant after: SUN YAT SEN University CANCER CENTER (SUN YAT SEN University AFFILIATED TO CANCER CENTER SUN YAT SEN UNIVERSITY CANCER INSTITUTE)

Address before: No. 651, Dongfeng East Road, Yuexiu District, Guangzhou, Guangdong 510060

Applicant before: SUN YAT SEN University CANCER CENTER

GR01 Patent grant
GR01 Patent grant