CN114240991A - 一种rgb图像的实例分割方法 - Google Patents
一种rgb图像的实例分割方法 Download PDFInfo
- Publication number
- CN114240991A CN114240991A CN202111547350.6A CN202111547350A CN114240991A CN 114240991 A CN114240991 A CN 114240991A CN 202111547350 A CN202111547350 A CN 202111547350A CN 114240991 A CN114240991 A CN 114240991A
- Authority
- CN
- China
- Prior art keywords
- feature
- network
- embedding
- characteristic
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000011218 segmentation Effects 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 238000009795 derivation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000011176 pooling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- OLBCVFGFOZPWHH-UHFFFAOYSA-N propofol Chemical compound CC(C)C1=CC=CC(C(C)C)=C1O OLBCVFGFOZPWHH-UHFFFAOYSA-N 0.000 description 1
- 229960004134 propofol Drugs 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种RGB图像的实例分割方法,该方法检测一张图像中的所有物体并预测它的掩码。该方法以现有的物体检测框架为基础,并在其基础上进行扩充,对于一张输入的RGB图像,本发明的方法通过神经网络为其预测两种嵌入特征,第一种特征是针对每个检测到的物体的,名为物体嵌入特征,另一种特征是针对图像中的像素的,名为像素嵌入特征。通过比较像素特征与物体特征的相似度,本发明就可以判断出该像素是否属于该物体的掩码。本发明的方法预测速度快、检测精度高、掩码质量好、流程简单。
Description
技术领域
本发明涉及RGB图像的实例分割领域,具体涉及一种RGB图像的实例分割方法。
背景技术
现有的实例分割技术主要分成两大类:基于物体检测的和基于分割的。基于物体检测的方法会先预测一系列的物体然后再针对每个物体提取它的掩码。在统一的框架提出之前,DeepMask使用滑动窗口来进行物体检测,然后再在其内部分割出物体掩码。而MaskR-CNN在物体检测框架Faster R-CNN的基础上提出了一个实例分割的方法,借助局部池化(repooling)的操作使得物体检测任务和分割任务都能在统一神经网络下工作。但该方法的缺点是操作较复杂,且局部池化的操作会使得特征信息的丢失从而导致掩码不够精细。还有不少工作是在Mask R-CNN的基础上进行的改进来提高它的精度。
基于分割的方法直接为每个像素预测一个嵌入特征(embedding)。然后将这些像素根据特征进行聚类。聚成一个类别的像素就组成了一个物体的掩码。这类方法的关键点在于特征的训练和聚类的方式。一些方法提出了特殊的损失函数用于特征的训练。而在聚类方法也是各式各样的,有使用mean-shift的,有使用谱聚类的,也有使用生成种子的。由于直接在像素级别上进行掩码的预测,这些方法预测得到的掩码通常是比较精细的。但它们不能很好地解决如何找到正确的聚类中心和聚类数量的问题,所以它们的检测精度通常不高。
发明内容
本发明的目的在于针对现有技术的不足,提供了一种RGB图像的实例分割方法。本发明可以对现有的物体检测框架进行扩展,利用物体特征和像素特征的预测以及特征匹配的操作实现高效高质量的掩码预测。同时本发明的步骤简单,相对于原物体检测框架额外消耗小,具有很高的实用价值。
本发明的目的是通过以下技术方案来实现的:
一种RGB图像实例分割方法,该方法包括如下步骤:
步骤一:构建神经网络;
所述神经网络包括特征提取网络、检测子网络和分割子网络;所述特征提取网络采用主干网络接特征金字塔网络的模式,其输入为图像,输出为P3-P7五个大小不同的特征图;所述检测子网络的输入为P3-P7五个大小不同的特征图,每个输入特征图经过一个共享权重的检测子网络,输出特征筛选等处理得到检测到的物体在图像中的位置,不同的输入特征图得到不同大小的检测物体;
所述分割子网络包括两个分支:
(1)分支一以P3-P7的特征图作为输入,每个输入特征图经过多次卷积操作,先得到中间特征,再将该中间特征经过卷积操作得到物体范围特征,将所述中间特征再经过嵌入特征预测模块得到物体嵌入特征,不同的输入特征图得到不同大小的物体对应的物体范围特征和物体嵌入特征;所述嵌入特征预测模块将输入特征图经过并行的卷积操作,其中一个卷积操作后得到通道数为(D-2)的空间无关嵌入特征;另一个卷积操作得到通道数为2的特征图,再将该特征图与像素坐标图相加,得到空间相关嵌入特征;所述嵌入特征预测模块将空间无关嵌入特征和空间相关嵌入特征拼接后,得到通道数为D的物体嵌入特征;
(1)分支二以P3的特征图作为输入,经过多次卷积操作得到中间特征,将该中间特征同样经过嵌入特征预测模块,输出像素嵌入特征;
步骤二:训练所述神经网络;
将训练图像输入所述神经网络;其中,检测子网络输出检测到的物体的位置,分割子网络输出物体嵌入特征、物体范围特征和像素嵌入特征;选择目标物体所在像素位置的物体嵌入特征和物体范围特征,并连同像素嵌入特征,进行掩码计算,获得掩码概率图;将掩码概率图与对应的物体的真实掩码进行比较,通过二项分类损失函数计算得到误差损失,进行反向梯度求导,对特征提取网络和分割子网络进行监督训练;同时,将目标物体的位置和检测子网络输出的物体位置进行比较,对特征提取网络和检测子网络进行监督训练;
步骤三:将待分割图像输入训练后的神经网络,分割子网络输出所有的物体嵌入特征、物体范围特征和像素嵌入特征,检测子网络输出的信息经过筛选等处理之后得到检测到的物体的位置;选择检测到物体所在位置的物体嵌入特征和物体范围特征,并连同像素嵌入特征,进行掩码计算,获得掩码概率图,并将掩码概率图与某个固定阈值进行比较,得到了二值化后的掩码。
进一步地,所述步骤二中的掩码计算的公式如下:
其中,pi表示第i个物体的物体嵌入特征,σi表示第i个物体的物体范围特征,qj表示第j个像素的像素嵌入特征,D是pi,σi,qj这些特征向量的维度,φ(i,j)表示第j个像素属于第i个物体的概率;对于第i个物体,使用该公式遍历所有的像素,即可得到该物体的掩码概率图。
进一步地,所述步骤一中的分割子网络在输出物体范围特征之前使用指数函数激活,使得输出物体范围特征中的所有值大于零。
本发明的有益效果如下:
本发明在原有的物体检测框架上只通过神经网络额外预测了三种特征,并通过简单的特征匹配实现针对物体实例的掩码预测,步骤简洁,额外消耗少。并且本方法借助像素嵌入特征可以直接在原图像空间进行掩码预测,不需要进行局部池化,没有特征信息的丢失,预测出来的掩码能够保留足够的细节。而借助物体嵌入特征,本发明的方法解决了基于分割的方法中寻找聚类数量和聚类中心困难的问题,可以获得较高的检测精度。
附图说明
图1是本发明的算法训练阶段流程图。
图2是本发明的算法推理阶段流程图。
图3是本发明的神经网络架构。
图4是神经网络架构中的嵌入特征预测模块。
图5是使用本方法预测到的图像中掩码,着重展示了细节区域。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明的RGB图像的实例分割方法EmbedMask是在现有的物体检测方法上进行扩充得到的。本发明的方法具体包括以下步骤:
步骤1:准备训练数据。本方法使用公开数据集作为训练数据,如MS COCO。该数据集包含输入图像,以及每张输入图像的目标物体类别、包围盒和掩码,同时,本方法将目标物体包围盒中心所在的像素坐标当作该物体在图像中所在的位置。在正式进入训练之前,需要对数据图像进行缩放,使得图像的最短边的范围在640-800之间,同时最长边不超过1333。
步骤2:构建神经网络。该神经网络构造如图3所示,主要包含特征提取网络、检测子网络和分割子网络。特征提取网络采用主干网络接特征金字塔网络的模式,主干网络可以使用ResNet、MobileNet等。特征提取网络输入为训练图像,输出为P3-P7五个特征图,其大小分别为原图的所述检测子网络使用现有的物体检测方法的网络,如FCOS,以P3-P7五个不同大小的特征图作为输入,每个输入特征图经过一个共享权重的检测子网络,输出五组特征,每组特征对应于不同大小的物体的检测,如以P3-P7作为输入,其输出分别对应于最长边长范围为(64-),(64,128),(128,256),(256,512),(512+)的物体的检测。具体而言,每组输出特征的内容为Hi×Wi×4的物体包围盒特征和Hi×Wi×(C+1)的物体类别分数特征,其中,i的范围为3-7,Hi和Wi表示以Pi特征图作为输入得到的输出特征图的长宽,C表示物体类别的数量。物体包围盒特征图中的每个像素的值是一个4维的向量,表示位于该像素的物体的包围盒的4条边界与该像素的距离;物体类别分数特征图中的每个像素的值是一个(C+1)维的向量,表示位于该像素的物体属于C类中的某一类或者不属于任何类别。
所述分割子网络包括两个分支:
(1)分支一以P3-P7的特征图作为输入,每个输入特征图经过4次卷积操作,先得到Hi×Wi×256的中间特征,再将该中间特征经过卷积操作得到Hi×Wi×D的物体范围特征(proposal margin),将所述中间特征再经过嵌入特征预测模块得到Hi×Wi×D的物体嵌入特征(proposal embedding)。如图4所示,嵌入特征预测模块将输入特征图经过并行的卷积操作,其中一个卷积操作后得到通道数为(D-2)的空间无关嵌入特征(spatial-freeembedding);另一个卷积操作得到通道数为2的特征图,再将该特征图与像素坐标图相加,得到空间相关嵌入特征(spatial-aware embedding);所述嵌入特征预测模块将空间无关嵌入特征和空间相关嵌入特征拼接后,得到通道数为D的物体嵌入特征;上述过程使用的卷积操作的卷积核大小为3×3,步长为1,填充边长为1;并且除了输出层以外的卷积操作使用ReLU函数激活,物体范围特征的输出层使用指数函数激活,物体嵌入特征的输出层不使用激活函数。本分支输出的物体嵌入特征图和物体范围特征图中的每个像素位置的值代表位于该像素的物体的嵌入特征和范围特征。
(2)分支二以P3的特征图作为输入,经过4次卷积操作,先得到H3×W3×256的中间特征,再将所述中间特征经过嵌入特征预测模块得到H3×W3×D的像素嵌入特征。上述过程使用的卷积操作的卷积核大小为3×3,步长为1,填充边长为1;并且除了输出层以外的卷积操作使用ReLU函数激活,像素嵌入特征的输出层不使用激活函数。本分支输出的像素嵌入特征图中的每个像素位置的值代表该像素的嵌入特征(pixel embedding)。
步骤3:训练神经网络。神经网络的前向传输流程如图1所示,将训练图像输入由特征提取网络、检测子网络和分割子网络组成的神经网络。其中,分割子网络输出物体嵌入特征、物体范围特征和像素嵌入特征,检测子网络输出物体包围盒特征和物体类别分数特征。选择目标物体所在位置的物体嵌入特征和物体范围特征,并连同像素嵌入特征,进行掩码计算,获得掩码概率图。上述掩码计算公式如下:
其中,pi表示第i个物体的物体嵌入特征,σi表示第i个物体的物体范围特征,qj表示第j个像素的像素嵌入特征,D是pi,σi,qj这些特征向量的维度,φ(i,j)表示第j个像素属于第i个物体的概率。对于第i个物体,使用该公式遍历所有的像素,即可得到该物体的掩码概率图。将得到的掩码概率图缩放到原图大小后与物体的真实掩码进行比较,通过二项分类损失函数计算得到误差损失。使用该损失值进行反向梯度求导,对特征提取网络和分割子网络进行监督训练。同时,将目标物体的包围盒和类别与检测子网络的输出进行比较,对特征提取网络和检测子网络进行监督训练。
步骤4:实例分割推理。如图3所示,将待分割图像输入训练后的神经网络,分割子网络输出物体嵌入特征、物体范围特征和像素嵌入特征,检测子网络输出物体包围盒特征和物体类别分数特征;将物体包围盒特征和物体类别分数特征经过非极大值抑制算法(NMS)得到检测到的物体的位置。选择检测到物体的位置的物体嵌入特征和物体范围特征,并连同像素嵌入特征,输入掩码预测模块,获得所有检测到的物体的掩码概率图。将所述掩码概率图使用线性插值得到原图大小的掩码概率图,再与某个固定阈值(如0.5)进行比较,将概率值大于0.5的像素区域视作物体的掩码,得到最终结果。
实施实例
发明人在一台配备Intel I7-6950X中央处理器,Nvidia GeForce GTX 2080Ti显卡以及128GB内存的台式计算机上实现了本发明的实施实例。发明人使用微软发布的公共数据集MS COCO来测试发明的实验结果。
本发明的实例分割结果如图5所示,图中着重展示了本发明的方法在细节区域的分割结果,可以看出本发明具有优秀的精细掩码预测能力。
表1展示了本发明的方法与Mask R-CNN在分类精度和推理时间上的对比。实验使用平均精度指标(AP)来判断实例分割结果的好坏,平均精度指标越高代表分割结果越好。为了公平性,两种方法的训练参数都保持一致,并且采用了两种不同的特征提取网络来验证。可以发现,不论是用哪种特征提取网络,EmbedMask的平均精度都比Mask R-CNN高,并且推理速度也更快。
表1.本发明的方法与Mask R-CNN在分类精度和推理时间上的对比
方法 | 特征提取网络 | AP | 推理时间(毫秒) |
Mask R-CNN | Resnet-50-FPN | 34.6 | 149.3 |
EmbedMask | Resnet-50-FPN | 34.8 | 66.2 |
Mask R-CNN | Resnet-101-FPN | 38.1 | 158.7 |
EmbedMask | Resnet-101-FPN | 38.3 | 85.5 |
本领域普通技术人员可以理解,以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。
Claims (3)
1.一种RGB图像实例分割方法,其特征在于,该方法包括如下步骤:
步骤一:构建神经网络;
所述神经网络包括特征提取网络、检测子网络和分割子网络;所述特征提取网络采用主干网络接特征金字塔网络的模式,其输入为图像,输出为P3-P7五个大小不同的特征图;所述检测子网络的输入为P3-P7五个大小不同的特征图,每个输入特征图经过一个共享权重的检测子网络,输出特征筛选等处理得到检测到的物体在图像中的位置,不同的输入特征图得到不同大小的检测物体;
所述分割子网络包括两个分支:
(1)分支一以P3-P7的特征图作为输入,每个输入特征图经过多次卷积操作,先得到中间特征,再将该中间特征经过卷积操作得到物体范围特征,将所述中间特征再经过嵌入特征预测模块得到物体嵌入特征,不同的输入特征图得到不同大小的物体对应的物体范围特征和物体嵌入特征;所述嵌入特征预测模块将输入特征图经过并行的卷积操作,其中一个卷积操作后得到通道数为(D-2)的空间无关嵌入特征;另一个卷积操作得到通道数为2的特征图,再将该特征图与像素坐标图相加,得到空间相关嵌入特征;所述嵌入特征预测模块将空间无关嵌入特征和空间相关嵌入特征拼接后,得到通道数为D的物体嵌入特征;
(1)分支二以P3的特征图作为输入,经过多次卷积操作得到中间特征,将该中间特征同样经过嵌入特征预测模块,输出像素嵌入特征;
步骤二:训练所述神经网络;
将训练图像输入所述神经网络;其中,检测子网络输出检测到的物体的位置,分割子网络输出物体嵌入特征、物体范围特征和像素嵌入特征;选择目标物体所在像素位置的物体嵌入特征和物体范围特征,并连同像素嵌入特征,进行掩码计算,获得掩码概率图;将掩码概率图与对应的物体的真实掩码进行比较,通过二项分类损失函数计算得到误差损失,进行反向梯度求导,对特征提取网络和分割子网络进行监督训练;同时,将目标物体的位置和检测子网络输出的物体位置进行比较,对特征提取网络和检测子网络进行监督训练;
步骤三:将待分割图像输入训练后的神经网络,分割子网络输出所有的物体嵌入特征、物体范围特征和像素嵌入特征,检测子网络输出的信息经过筛选等处理之后得到检测到的物体的位置;选择检测到物体所在位置的物体嵌入特征和物体范围特征,并连同像素嵌入特征,进行掩码计算,获得掩码概率图,并将掩码概率图与某个固定阈值进行比较,得到了二值化后的掩码。
3.根据权利要求1所述的RGB图像实例分割方法,其特征在于,所述步骤一中的分割子网络在输出物体范围特征之前使用指数函数激活,使得输出物体范围特征中的所有值大于零。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111547350.6A CN114240991B (zh) | 2021-12-16 | 2021-12-16 | 一种rgb图像的实例分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111547350.6A CN114240991B (zh) | 2021-12-16 | 2021-12-16 | 一种rgb图像的实例分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114240991A true CN114240991A (zh) | 2022-03-25 |
CN114240991B CN114240991B (zh) | 2024-07-26 |
Family
ID=80757486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111547350.6A Active CN114240991B (zh) | 2021-12-16 | 2021-12-16 | 一种rgb图像的实例分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240991B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190057507A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
CN111598030A (zh) * | 2020-05-21 | 2020-08-28 | 山东大学 | 一种航拍图像中车辆检测和分割的方法及系统 |
CN111915628A (zh) * | 2020-06-24 | 2020-11-10 | 浙江大学 | 一种基于预测目标密集边界点的单阶段实例分割方法 |
CN112686850A (zh) * | 2020-12-24 | 2021-04-20 | 上海体素信息科技有限公司 | 基于空间位置和原型网络的ct图像的少样本分割方法和系统 |
CN112883979A (zh) * | 2021-03-11 | 2021-06-01 | 先临三维科技股份有限公司 | 三维实例分割方法、装置、设备和计算机可读存储介质 |
CN113298936A (zh) * | 2021-06-01 | 2021-08-24 | 浙江大学 | 一种基于深度学习的多rgb-d全脸材质恢复方法 |
US20210279950A1 (en) * | 2020-03-04 | 2021-09-09 | Magic Leap, Inc. | Systems and methods for efficient floorplan generation from 3d scans of indoor scenes |
-
2021
- 2021-12-16 CN CN202111547350.6A patent/CN114240991B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190057507A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
US20210279950A1 (en) * | 2020-03-04 | 2021-09-09 | Magic Leap, Inc. | Systems and methods for efficient floorplan generation from 3d scans of indoor scenes |
CN111598030A (zh) * | 2020-05-21 | 2020-08-28 | 山东大学 | 一种航拍图像中车辆检测和分割的方法及系统 |
CN111915628A (zh) * | 2020-06-24 | 2020-11-10 | 浙江大学 | 一种基于预测目标密集边界点的单阶段实例分割方法 |
CN112686850A (zh) * | 2020-12-24 | 2021-04-20 | 上海体素信息科技有限公司 | 基于空间位置和原型网络的ct图像的少样本分割方法和系统 |
CN112883979A (zh) * | 2021-03-11 | 2021-06-01 | 先临三维科技股份有限公司 | 三维实例分割方法、装置、设备和计算机可读存储介质 |
CN113298936A (zh) * | 2021-06-01 | 2021-08-24 | 浙江大学 | 一种基于深度学习的多rgb-d全脸材质恢复方法 |
Non-Patent Citations (3)
Title |
---|
HUI YING等: "EmbedMask: Embedding Coupling for One-stage Instance Segmentation", 《 COMPUTER VISION AND PATTERN RECOGNITION》, 5 December 2019 (2019-12-05) * |
YU XIANG等: "Learning RGB-D Feature Embeddings for Unseen Object Instance Segmentation", 《PROCEEDINGS OF MACHINE LEARNING RESEARCH》, 3 March 2021 (2021-03-03) * |
王子愉;袁春;黎健成;: "利用可分离卷积和多级特征的实例分割", 软件学报, no. 04, 15 April 2019 (2019-04-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN114240991B (zh) | 2024-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639692B (zh) | 一种基于注意力机制的阴影检测方法 | |
CN110569738B (zh) | 基于密集连接网络的自然场景文本检测方法、设备和介质 | |
CN112949572B (zh) | 基于Slim-YOLOv3的口罩佩戴情况检测方法 | |
CN108229550B (zh) | 一种基于多粒度级联森林网络的云图分类方法 | |
CN116258719B (zh) | 基于多模态数据融合的浮选泡沫图像分割方法和装置 | |
CN111160407B (zh) | 一种深度学习目标检测方法及系统 | |
CN113642634A (zh) | 一种基于混合注意力的阴影检测方法 | |
CN112686304B (zh) | 一种基于注意力机制以及多尺度特征融合的目标检测方法、设备及存储介质 | |
CN111368636B (zh) | 目标分类方法、装置、计算机设备和存储介质 | |
CN107169417B (zh) | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 | |
CN114372968B (zh) | 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法 | |
CN107784288A (zh) | 一种基于深度神经网络的迭代定位式人脸检测方法 | |
CN111986125A (zh) | 一种用于多目标任务实例分割的方法 | |
CN114187311A (zh) | 一种图像语义分割方法、装置、设备及存储介质 | |
CN111932577B (zh) | 文本检测方法、电子设备及计算机可读介质 | |
CN112257738A (zh) | 机器学习模型的训练方法、装置和图像的分类方法、装置 | |
CN111899203B (zh) | 基于标注图在无监督训练下的真实图像生成方法及存储介质 | |
CN109726649B (zh) | 遥感影像云检测方法、系统及电子设备 | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、系统及设备 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN115147632A (zh) | 基于密度峰值聚类算法的图像类别自动标注方法及装置 | |
CN114283431B (zh) | 一种基于可微分二值化的文本检测方法 | |
JP2024508867A (ja) | 画像クラスタリング方法、装置、コンピュータ機器及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |