CN113689437A - 基于迭代式选择-修正网络的交互式图像分割方法 - Google Patents

基于迭代式选择-修正网络的交互式图像分割方法 Download PDF

Info

Publication number
CN113689437A
CN113689437A CN202110847326.8A CN202110847326A CN113689437A CN 113689437 A CN113689437 A CN 113689437A CN 202110847326 A CN202110847326 A CN 202110847326A CN 113689437 A CN113689437 A CN 113689437A
Authority
CN
China
Prior art keywords
interaction
points
selection
iterative
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110847326.8A
Other languages
English (en)
Other versions
CN113689437B (zh
Inventor
王涛
李阳
孙权森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202110847326.8A priority Critical patent/CN113689437B/zh
Publication of CN113689437A publication Critical patent/CN113689437A/zh
Application granted granted Critical
Publication of CN113689437B publication Critical patent/CN113689437B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于迭代式选择‑修正网络的交互式图像分割方法,该方法步骤如下:根据用户的分割意图,在训练过程中迭代式生成交互点;挖掘交互点序列中不同的交互意图,将交互点序列分为选择、修正两部分;将不同类型的交互点分别转换成为不同影响半径的距离特征图;依据当前交互点类型,采取不同的损失函数;对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割。本发明以选择修正网络框架区分交互类型,使得交互点意图被充分挖掘,同时引入时序模型使得每轮迭代式交互过程不再相互割裂,获得了显著的效果,该方法对图像处理领域中抠图、数据集标注等方面具有重要的实际意义。

Description

基于迭代式选择-修正网络的交互式图像分割方法
技术领域
本发明涉及交互式图像分割技术领域,特别是一种基于迭代式选择-修正网络的交互式图像分割方法。
背景技术
交互式图像分割是指在用户提供的先验知识下,基于一定的相似性准则将用户感兴趣的目标从复杂的图像背景环境中分离出来,它是图像分析、模式识别和计算机视觉等领域中的一个关键问题,分割质量的好坏将直接影响后续相关应用。
近年来,随着深度学习模型在计算机视觉众多任务中都取得了优异的成绩,基于深度学习的交互分割方法越来越受到了国内外学者的广泛关注,其突破了传统交互式方法只能提取底层局部特征的局限性,利用卷积神经网络的特征提取能力获得了突出了分割效果,并成为主流的交互式图像分割方法。迭代式交互式分割方法基于深度学习方法提出,提出了一种全新的训练过程,其模拟了真正的交互形式,在训练过程中点击点以迭代形式生成,并动态扩展输入数据,从而获得了更加优异的分割效果。
然而现有迭代式训练方法虽然模拟真正了交互形式,但是并没有感知不同交互点类型的不同交互意图,难以在有限的交互点数量条件下获取满意的分割结果;此外,迭代式训练过程中所有迭代轮次之间完全独立,使得模型没有能力感知时域上的先后顺序,难以维护迭代过程中的时空一致性。这些缺陷严重影响了该类方法的准确性和鲁棒性,限制了其实用性。
发明内容
本发明的目的在于提供一种基于迭代式选择-修正网络的交互式图像分割方法,并结合时序卷积长短期记忆单元(Convolutional LSTM,CLSTM),提高交互式分割的预测精度,减少用户所需的点击交互数,完成对图像的交互式分割。
实现本发明目的的技术解决方案为:一种基于迭代式选择-修正网络的交互式图像分割方法,包括以下步骤:
步骤1、根据用户的分割意图,在训练过程中迭代式生成交互点;
步骤2、挖掘交互点序列中不同的交互意图,将交互点序列分为选择、修正两部分;
步骤3、将不同类型的交互点分别转换成为不同影响半径的距离特征图;
步骤4、依据当前交互点类型,采取不同的损失函数;
步骤5、对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割。
进一步地,步骤1中,在训练过程中迭代式生成交互点,具体为:
以模型当前所得到的分割结果和目标区域的真实标签作对比,每次都选择错误分割的最大区域,定位该最大区域的形心作为新生成交互点的分割坐标,并循环往复此过程,称为迭代式训练;交互点分为前景交互点和背景交互点两种,分别对应假阴性和假阳性两种类型的错误区域。
进一步地,步骤2中,将交互点序列分为选择、修正两部分,具体为:
交互点序列中的第一个交互点为选择类型,随后的交互点为修正类型。
进一步地,步骤3中,将不同类型的交互点分别转换成为不同影响半径的距离特征图,距离特征图转换方式为:
距离特征图为与图像尺寸相同的三通道灰度图,其中第一通道对应选择交互点,第二和第三通道对应修正交互点;每个像素点在每个通道上取值为0-255,值越小代表该像素点受到交互点的影响越大,越大表示该像素点受到交互点的影响越小;在同一通道的特征图中,距离交互点越近的像素点受到的影响更大,也即值越小,反之亦然;选择交互点蕴含用户全局选择意图,在特征图上具有更大的影响半径;修正交互点蕴含用户局部修正意图,在特征图上具有更小的影响半径。
进一步地,步骤4中,依据当前交互点类型,采取不同的损失函数,具体为:
在训练过程中,定义损失函数L为:
L=αLc+(1α)Lnfl
其中α为权重参数,在选择阶段和修正阶段的权重不同;Lnfl为全局损失函数;
Lc定义为修正损失函数,公式如下:
Figure BDA0003178983570000021
其中Gw为当前点击点所对应的最大错误区域;p为像素点,xp为p像素点的预测值,yp为p像素点的标签值,Gw代表上一轮迭代过程中所获得的最大错误区域;
在选择网络阶段,将α设定为0;在修正网络阶段,将α设置为0.5。
进一步地,步骤5中,对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割,具体如下:
在编码-解码基础网络结构中,在编码器和解码器之间加入卷积长短期记忆单元CLSTM,用以在迭代过程中感知、挖掘和传递隐藏信息,公式如下:
ft=σ(Wsf*St+Whf*Ht-1+bf)
it=σ(Wsi*St+Whi*Ht-1+bi)
Ct=ft⊙ct-1+it⊙tanh(Wsc*St+Whc*Ht-1+bc)
ot=σ(Wso*St+Who*Ht-1+bo)
Ht=ot⊙tanh(Ct)
其中t、t-1分别表示当前迭代轮次和上一迭代轮次;σ表示sigmoid函数,*表示卷积操作,⊙表示元素乘法,C表示记忆细胞;it、ft、ot分别表示输入门控单元、遗忘门控单元、输出门控单元;S、H分别表示编码器输出以及CLSTM模块从上一次迭代中传递而来的隐藏状态。
本发明与现有技术相比,其显著优点在于:(1)使用选择修正网络,理解迭代式过程中的交互意图,对于选择点突出其全局选择意图,对于修正点突出其局部修正意图,并在不同阶段使用不同损失函数,从而提高了算法对于交互信息的感知能力,能够获得更好的分割结果;(2)在迭代过程中,针对传统方法无法感知时域上的先后顺序等问题,引入时序模型,通过CLSTM模块,在迭代过程中维护时空一致性,从而获得更优的分割结果。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于迭代式选择-修正网络的交互式图像分割方法的流程图。
图2是本发明基于迭代式选择-修正网络的交互式图像分割方法的系统结构图。
图3是选择-修正网路对于选择类型和修正类型的交互点转换为距离特征图的处理流程图。
图4是本发明中时序模型CLSTM在深度模型中应用的网络结构图。
图5是本发明模型分割结果图。
具体实施方式
本发明提出一种基于迭代式选择-修正网络的交互式图像分割方法,该方法对现有基于深度学习的迭代式训练方法进行改进,在训练过程中引入选择-修正网络,将训练过程拆分为选择和修正两个阶段,并引入卷积长短期记忆(Convolutional LSTM,CLSTM)单元以串联迭代过程。此方法突破现有深度学习方法的局限性,充分挖掘不同类型交互点所隐含的交互意图,并将迭代输入交互点序列进行时序建模,维护了迭代过程中的时空一致性,在有限的用户交互输入前提下,取得了优异的分割结果。
结合图1~图2,本发明的基于迭代式选择-修正网络的交互式图像分割方法包括以下步骤:
步骤1、根据用户的分割意图,在训练过程中迭代式生成交互点;
步骤2、挖掘交互点序列中不同的交互意图,将交互点序列分为选择、修正两部分;
步骤3、将不同类型的交互点分别转换成为不同影响半径的距离特征图;
步骤4、依据当前交互点类型,采取不同的损失函数;
步骤5、对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割。
进一步地,步骤1中,在训练过程中迭代式生成交互点,具体为:
以模型当前所得到的分割结果和目标区域的真实标签作对比,每次都选择错误分割的最大区域,定位该最大区域的形心作为新生成交互点的分割坐标,并循环往复此过程,称为迭代式训练;交互点分为前景交互点和背景交互点两种,分别对应假阴性和假阳性两种类型的错误区域。
进一步地,步骤2中,将交互点序列分为选择、修正两部分,具体为:
交互点序列中的第一个交互点为选择类型,随后的交互点为修正类型。
进一步地,步骤3中,将不同类型的交互点分别转换成为不同影响半径的距离特征图,距离特征图转换方式为:
距离特征图为与图像尺寸相同的三通道灰度图,其中第一通道对应选择交互点,第二和第三通道对应修正交互点;每个像素点在每个通道上取值为0-255,值越小代表该像素点受到交互点的影响越大,越大表示该像素点受到交互点的影响越小;在同一通道的特征图中,距离交互点越近的像素点受到的影响更大,也即值越小,反之亦然;选择交互点蕴含用户全局选择意图,在特征图上具有更大的影响半径;修正交互点蕴含用户局部修正意图,在特征图上具有更小的影响半径。
进一步地,步骤4中,依据当前交互点类型,采取不同的损失函数,具体为:
在训练过程中,定义损失函数L为:
L=αLc+(1-α)Lnfl
其中α为权重参数,在选择阶段和修正阶段的权重不同;Lnfl为全局损失函数;
Lc定义为修正损失函数,公式如下:
Figure BDA0003178983570000051
其中Gw为当前点击点所对应的最大错误区域;p为像素点,xp为p像素点的预测值,yp为p像素点的标签值,Gw代表上一轮迭代过程中所获得的最大错误区域;
在选择网络阶段,将α设定为0;在修正网络阶段,将α设置为0.5。
进一步地,步骤5中,对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割,具体如下:
在编码-解码基础网络结构中,在编码器和解码器之间加入卷积长短期记忆单元CLSTM,用以在迭代过程中感知、挖掘和传递隐藏信息,公式如下:
ft=σ(Wsf*St+Whf*Ht-1+bf)
it=σ(Wsi*St+Whi*Ht-1+bi)
ct=ft⊙ct-1+it⊙tanh(Wsc*St+Whc*Ht-1+bc)
ot=σ(Wso*St+Who*Ht-1+bo)
Ht=ot⊙tanh(Ct)
其中t、t-1分别表示当前迭代轮次和上一迭代轮次;σ表示sigmoid函数,*表示卷积操作,⊙表示元素乘法,C表示记忆细胞;it、ft、ot分别表示输入门控单元、遗忘门控单元、输出门控单元;S、H分别表示编码器输出以及CLSTM模块从上一次迭代中传递而来的隐藏状态。
CLSTM通过引入隐藏状态和记忆细胞,将迭代式训练过程使用时序模型建模,维护迭代过程中的时空一致性,同时使用门控单元控制不同种类信息的流动,从而能够弥补了传统循环神经网络结构无法有效捕获长时段信息的劣势。
下面结合实施例对本发明做进一步详细的说明。
实施例
本实施例以RGB三维图像作为输入,在训练阶段使用迭代式训练方法模拟交互,测试阶段接受用户输入的交互点信息,包括前景点和背景点,最终生成前景-背景分割结果,形式为与RGB图像同样尺寸的二维向量,像素值为1代表前景,像素值为0代表背景。
(1)论文《Semantic contours from inverse detectors》提供的SBD数据集是一个图像分割数据集,其中训练集包含8498张图像,验证集包含2820张图像。此发明使用SBD数据集训练集作为训练数据集,对于输入图像统一变换到320*480尺寸,并进行标准化和归一化。在训练过程中,使用迭代式训练策略生成交互点,即根据前一次迭代的分割结果对比真实标签,取最大错误区域形心作为当前新添加的交互点。
(2)序列中的第一个点击点(必然为前景点击点)包含用户的全局选择信息,而后续的点击点更加突出用户对于当前错误区域的修正,因此第一个交互点为选择类型,而随后的交互点为修正类型。本发明提出选择-修正网络,将迭代式训练过程分为选择和修正两个阶段。
(3)将交互点转换为易于深度模型理解的距离特征图。由于输入的点击点只包含交互位置坐标信息,而为了让深度模型易于理解交互位置信息,需要将交互信息转换为距离特征图。距离特征图在形式上为单通道的灰度图,像素值的范围为[0,255]。其中值越小代表该像素点位置越靠近交互点,值越大代表该像素点位置越远离交互点。本发明所述的选择-修正网络,挖掘不同类型交互点所隐含的不同信息。类型为选择的交互点,也即交互点序列的第一个交互点,其选择目标必然是感兴趣目标的中心,通常情况下具有更大的全局影响范围;类型为修正的交互点,其交互位置是在前一次迭代所生成的分割结果上做出的最优修正,因此通常情况下具有更小的局部影响范围。选择-修正网络将不同类型的交互点转换为影响半径不同的特征图,如图3所示。最终深度模型接受的输入为RGB图像+选择特征图+前景修正特征图+背景修正特征图,共6通道数据。
(4)在训练过程中,我们定义损失函数为:
L=αLc+(1-α)Lnfl
其中α为权重参数,其在选择阶段和修正阶段的权重不同,代表当前模型更加侧重与全局选择还是局部修正。Lnfl为Normalized Focal Loss,是一种平衡正负样本和加快收敛速度的全局损失函数。Lc定义为修正损失函数,其公式如下:
Figure BDA0003178983570000061
其中Gw为当前点击点所对应的最大错误区域。在选择网络阶段,我们将α设定为0;在修正网络阶段,将其设置为0.5。
(5)在编码-解码基础网络结构中,在编码器和解码器之间加入卷积长短期记忆单元(Convolutional LSTM,CLSTM),用以在迭代过程中感知,挖掘和传递隐藏信息。工作原理如下:
ft=σ(Wsf*St+Whf*Ht-1+bf)
it=σ(Wsi*st+Whi*Ht-1+bi)
Ct=ft⊙Ct-1+it⊙tanh(Wsc*St+Whc*Ht-1+bc)
ot=σ(Wso*St+Who*Ht-1+bo)
Ht=ot⊙tanh(Ct)
其中t,t-1分别表示当前迭代轮次和上一迭代轮次,σ表示sigmoid函数,*表示卷积操作,⊙表示元素乘法,C表示记忆细胞,it、ft、ot分别表示输入门控单元、遗忘门控单元、输出门控单元,而S和H分别表示编码器输出,以及CLSTM模块从上一次迭代中传递而来的隐藏信息。CLSTM结构如图4所示,其被嵌入在编码器-解码器之间,用以捕获和传递时序信息。为了避免梯度消失问题并加快模型收敛速度,本发明设计使用残差结构连接编码器输出和CLSTM的隐藏信息。
(6)最终实验结果如图5所示。图5展示出本发明完整的迭代交互流程,随着交互点的增加,模型能够以更快的速度,也即更少的交互代价,得到更优的分割结果。图5中第三、四、六列展现了选择-修正网络的选择能力较为突出,仅仅通过一个交互点,就能够满足大部分分割精度需求(IoU≥0.85),这是因为选择-修正网络对于选择型交互点,更加侧重其全局选择意图;图5中第一、二、五列展现了选择-交互网络的修正能力,由于选择-修正网络对于修正类型交互点更加侧重其局部修正意图,并且模型基于CLSTM结构进行迭代式训练,使得网络能够更快从有限的交互信息中获得满意的分割结果。
上述选择-修正网络设计能够使得在迭代式训练过程中,模型能够充分挖掘交互点所隐含的实际用户意图,从而以更少的代价得到更好的分割结果;时序模型使得每次迭代过程不再相互割裂,使用CLSTM模块进行连接,从而使得用户交互意图和分割线索在迭代过程中传递,维护了分割过程的时空一致性。本发明在多个公共数据集上的指标都优于现有的方法,实现了交互式分割的低代价高精度分割,对于图像处理中抠图、数据集标注等方面具有重要的实际意义。

Claims (6)

1.一种基于迭代式选择-修正网络的交互式图像分割方法,其特征在于,包括以下步骤:
步骤1、根据用户的分割意图,在训练过程中迭代式生成交互点;
步骤2、挖掘交互点序列中不同的交互意图,将交互点序列分为选择、修正两部分;
步骤3、将不同类型的交互点分别转换成为不同影响半径的距离特征图;
步骤4、依据当前交互点类型,采取不同的损失函数;
步骤5、对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割。
2.根据权利要求1所述的基于迭代式选择-修正网络的交互式图像分割方法,其特征在于,步骤1中,在训练过程中迭代式生成交互点,具体为:
以模型当前所得到的分割结果和目标区域的真实标签作对比,每次都选择错误分割的最大区域,定位该最大区域的形心作为新生成交互点的分割坐标,并循环往复此过程,称为迭代式训练;交互点分为前景交互点和背景交互点两种,分别对应假阴性和假阳性两种类型的错误区域。
3.根据权利要求1所述的基于迭代式选择-修正网络的交互式图像分割方法,其特征在于,步骤2中,将交互点序列分为选择、修正两部分,具体为:
交互点序列中的第一个交互点为选择类型,随后的交互点为修正类型。
4.根据权利要求1所述的基于迭代式选择-修正网络的交互式图像分割方法,其特征在于,步骤3中,将不同类型的交互点分别转换成为不同影响半径的距离特征图,距离特征图转换方式为:
距离特征图为与图像尺寸相同的三通道灰度图,其中第一通道对应选择交互点,第二和第三通道对应修正交互点;每个像素点在每个通道上取值为0-255,值越小代表该像素点受到交互点的影响越大,越大表示该像素点受到交互点的影响越小;在同一通道的特征图中,距离交互点越近的像素点受到的影响更大,也即值越小,反之亦然;选择交互点蕴含用户全局选择意图,在特征图上具有更大的影响半径;修正交互点蕴含用户局部修正意图,在特征图上具有更小的影响半径。
5.根据权利要求1所述的基于迭代式选择-修正网络的交互式图像分割方法,其特征在于,步骤4中,依据当前交互点类型,采取不同的损失函数,具体为:
在训练过程中,定义损失函数L为:
L=αLc+(1-α)Lnfl
其中α为权重参数,在选择阶段和修正阶段的权重不同;Lnfl为全局损失函数;
Lc定义为修正损失函数,公式如下:
Figure FDA0003178983560000021
其中Gw为当前点击点所对应的最大错误区域;p为像素点,xp为p像素点的预测值,yp为p像素点的标签值,Gw代表上一轮迭代过程中所获得的最大错误区域;
在选择网络阶段,将α设定为0;在修正网络阶段,将α设置为0.5。
6.根据权利要求1所述的基于迭代式选择-修正网络的交互式图像分割方法,其特征在于,步骤5中,对迭代过程建模,使用时序模型传递交互意图信息和分割线索,最终完成图像分割,具体如下:
在编码-解码基础网络结构中,在编码器和解码器之间加入卷积长短期记忆单元CLSTM,用以在迭代过程中感知、挖掘和传递隐藏信息,公式如下:
ft=σ(Wsf*St+Whf*Ht-1+bf)
it=σ(Wsi*St+Whi*Ht-1+bi)
Ct=ft⊙Ct-1+it⊙tanh(Wsc*St+Whc*Ht-1+bc)
ot=σ(Wso*St+Who*Ht-1+bo)
Ht=ot⊙tanh(Ct)
其中t、t-1分别表示当前迭代轮次和上一迭代轮次;σ表示sigmoid函数,*表示卷积操作,⊙表示元素乘法,C表示记忆细胞;it、ft、ot分别表示输入门控单元、遗忘门控单元、输出门控单元;S、H分别表示编码器输出以及CLSTM模块从上一次迭代中传递而来的隐藏状态。
CN202110847326.8A 2021-07-26 2021-07-26 基于迭代式选择-修正网络的交互式图像分割方法 Active CN113689437B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110847326.8A CN113689437B (zh) 2021-07-26 2021-07-26 基于迭代式选择-修正网络的交互式图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110847326.8A CN113689437B (zh) 2021-07-26 2021-07-26 基于迭代式选择-修正网络的交互式图像分割方法

Publications (2)

Publication Number Publication Date
CN113689437A true CN113689437A (zh) 2021-11-23
CN113689437B CN113689437B (zh) 2024-06-11

Family

ID=78577898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110847326.8A Active CN113689437B (zh) 2021-07-26 2021-07-26 基于迭代式选择-修正网络的交互式图像分割方法

Country Status (1)

Country Link
CN (1) CN113689437B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332116A (zh) * 2021-12-23 2022-04-12 上海科技大学 用于交互式分割的意图感知特征传播网络实现方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102360494A (zh) * 2011-10-18 2012-02-22 中国科学院自动化研究所 一种多前景目标交互式图像分割方法
CN104463843A (zh) * 2014-10-31 2015-03-25 南京邮电大学 安卓系统的交互式图像分割方法
CN104820990A (zh) * 2015-05-15 2015-08-05 北京理工大学 一种交互式图像抠图系统
CN106022221A (zh) * 2016-05-09 2016-10-12 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
US20190251398A1 (en) * 2018-02-13 2019-08-15 Slingshot Aerospace, Inc. Conditional loss function modification in a neural network
US20190294702A1 (en) * 2018-03-21 2019-09-26 International Business Machines Corporation Image retrieval using interactive natural language dialog
CN110910335A (zh) * 2018-09-15 2020-03-24 北京市商汤科技开发有限公司 一种图像处理方法、图像处理设备及计算机可读存储介质
CN111598899A (zh) * 2020-05-18 2020-08-28 腾讯科技(深圳)有限公司 图像处理方法、装置及计算机可读存储介质
CN112508966A (zh) * 2020-10-27 2021-03-16 北京科技大学 一种交互式图像分割方法及系统
CN112884770A (zh) * 2021-04-28 2021-06-01 腾讯科技(深圳)有限公司 图像分割处理方法、装置及计算机设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102360494A (zh) * 2011-10-18 2012-02-22 中国科学院自动化研究所 一种多前景目标交互式图像分割方法
CN104463843A (zh) * 2014-10-31 2015-03-25 南京邮电大学 安卓系统的交互式图像分割方法
CN104820990A (zh) * 2015-05-15 2015-08-05 北京理工大学 一种交互式图像抠图系统
CN106022221A (zh) * 2016-05-09 2016-10-12 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
US20190251398A1 (en) * 2018-02-13 2019-08-15 Slingshot Aerospace, Inc. Conditional loss function modification in a neural network
US20190294702A1 (en) * 2018-03-21 2019-09-26 International Business Machines Corporation Image retrieval using interactive natural language dialog
CN110910335A (zh) * 2018-09-15 2020-03-24 北京市商汤科技开发有限公司 一种图像处理方法、图像处理设备及计算机可读存储介质
CN111598899A (zh) * 2020-05-18 2020-08-28 腾讯科技(深圳)有限公司 图像处理方法、装置及计算机可读存储介质
CN112508966A (zh) * 2020-10-27 2021-03-16 北京科技大学 一种交互式图像分割方法及系统
CN112884770A (zh) * 2021-04-28 2021-06-01 腾讯科技(深圳)有限公司 图像分割处理方法、装置及计算机设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332116A (zh) * 2021-12-23 2022-04-12 上海科技大学 用于交互式分割的意图感知特征传播网络实现方法
CN114332116B (zh) * 2021-12-23 2024-05-17 上海科技大学 用于交互式分割的意图感知特征传播网络实现方法

Also Published As

Publication number Publication date
CN113689437B (zh) 2024-06-11

Similar Documents

Publication Publication Date Title
CN106547880B (zh) 一种融合地理区域知识的多维度地理场景识别方法
CN108288088B (zh) 一种基于端到端全卷积神经网络的场景文本检测方法
KR102532749B1 (ko) 약한 지도 학습에 기초한 뉴럴 네트워크의 계층적 학습 방법 및 장치
CN111259906B (zh) 含多级通道注意力的条件生成对抗遥感图像目标分割方法
US11651214B2 (en) Multimodal data learning method and device
CN111862213A (zh) 定位方法及装置、电子设备、计算机可读存储介质
CN112233124A (zh) 基于对抗式学习与多模态学习的点云语义分割方法及系统
KR102305230B1 (ko) 객체 경계정보의 정확도 개선방법 및 장치
CN116542859B (zh) 用于智能建造的建筑结构柱图像缩略图智能生成方法
CN116434045B (zh) 一种烟叶烘烤阶段智能识别方法
CN113689437A (zh) 基于迭代式选择-修正网络的交互式图像分割方法
CN113158901B (zh) 一种域自适应行人重识别方法
CN118114105A (zh) 一种基于对比学习和Transformer结构的多模态情感识别方法及系统
CN117315758A (zh) 面部表情的检测方法、装置、电子设备及存储介质
CN117315090A (zh) 基于跨模态风格学习的图像生成方法及装置
CN115376195B (zh) 训练多尺度网络模型的方法及人脸关键点检测方法
CN118411531A (zh) 一种神经网络的训练方法、图像处理的方法以及装置
Chang et al. Remote sensing change detection with bitemporal and differential feature interactive perception
Chen et al. Underwater target detection and embedded deployment based on lightweight YOLO_GN
CN112396126A (zh) 一种基于检测主干与局部特征优化的目标检测方法及系统
CN113971678B (zh) 一种基于框标注的弱监督图像分割方法
CN118429389B (zh) 基于多尺度聚合注意力特征提取网络的目标跟踪方法与系统
CN114677380B (zh) 一种基于多样化交互的视频对象分割方法及系统
CN117152765A (zh) 模型训练的方法、装置、设备和可读介质
Yang et al. Instance-level image synthesis method based on multi-scale style transformation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant