CN114187318B - 图像分割的方法、装置、电子设备以及存储介质 - Google Patents

图像分割的方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN114187318B
CN114187318B CN202111506325.3A CN202111506325A CN114187318B CN 114187318 B CN114187318 B CN 114187318B CN 202111506325 A CN202111506325 A CN 202111506325A CN 114187318 B CN114187318 B CN 114187318B
Authority
CN
China
Prior art keywords
image segmentation
image
segmentation result
connected domain
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111506325.3A
Other languages
English (en)
Other versions
CN114187318A (zh
Inventor
褚芦涛
刘毅
吴泽武
陈泽裕
赖宝华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111506325.3A priority Critical patent/CN114187318B/zh
Publication of CN114187318A publication Critical patent/CN114187318A/zh
Application granted granted Critical
Publication of CN114187318B publication Critical patent/CN114187318B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了图像分割的方法、装置、电子设备以及存储介质,涉及人工智能技术领域,特别涉及图像处理和深度学习技术。具体实现方案为:获取包含前景的待分割图像;将该待分割图像输入至预先训练的图像分割模型,生成该待分割图像对应的分割结果图,其中,该图像分割模型中包括编码器、解码器和连接层,该连接层用于将该编码器的隐层所提取的特征输入至该解码器的隐层。

Description

图像分割的方法、装置、电子设备以及存储介质
技术领域
本公开涉及人工智能技术领域,特别涉及图像处理和深度学习技术,尤其涉及图像分割的方法、装置、电子设备以及存储介质。
背景技术
随着互联网技术的发展,语义分割技术也取得了越来越广泛的应用。语义分割是一种典型的计算机视觉问题,其涉及将一些原始数据(例如,平面图像)作为输入并将它们转换为具有突出显示的感兴趣区域的掩模。
现有的语义分割学习模型,往往结构较为复杂,难以在资源有限的计算平台上取得较为满意的图像分割效果。
发明内容
提供了一种图像分割的方法、装置、电子设备以及存储介质。
根据第一方面,提供了一种图像分割的方法,该方法包括:获取包含前景的待分割图像;将待分割图像输入至预先训练的图像分割模型,生成待分割图像对应的分割结果图,其中,图像分割模型中包括编码器、解码器和连接层,连接层用于将编码器的隐层所提取的特征输入至解码器的隐层。
根据第二方面,提供了一种图像分割的装置,该装置包括:图像获取单元,被配置成获取包含前景的待分割图像;图像分割单元,被配置成将待分割图像输入至预先训练的图像分割模型,生成待分割图像对应的分割结果图,其中,图像分割模型中包括编码器、解码器和连接层,连接层用于将编码器的隐层所提取的特征输入至解码器的隐层。
根据第三方面,提供了一种电子设备,该电子设备包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,存储器存储有可被上述至少一个处理器执行的指令,上述指令被至少一个处理器执行,以使上述至少一个处理器能够执行如第一方面中任一实现方式所描述的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机能够执行如第一方面中任一实现方式所描述的方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现如第一方面中任一实现方式所描述的方法。
根据本公开的技术实现了通过利用包括编码器、解码器和用于将上述编码器的隐层所提取的特征输入至上述解码器的隐层的连接层的图像分割模型,可以将编码器和解码器跨层连接起来,实现对底层纹理特征的整合,有利于生成更精细的掩码。而且,上述连接层可以重用编码器所提取的特征,提高了特征的利用率,无需增加额外的计算成本。从而有助于在几乎不增加计算量的前提下提高图像分割的效果,有利于在资源有限的计算平台(诸如没有强大GPU的智能手机或基于浏览器上运行的JavaScript的聊天网页)上实现图像分割效果和推理速度的平衡。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1a、1b、1c是根据本公开第一实施例的示意图;
图2a、2b是根据本公开第二实施例的示意图;
图3是可以实现本公开实施例的图像分割的方法的一个应用场景的示意图;
图4是根据本公开实施例的图像分割的装置的示意图;
图5是用来实现本公开实施例的图像分割的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1a是示出了根据本公开第一实施例的示意图100。该图像分割的方法包括以下步骤:
S101,获取包含前景的待分割图像。
在本实施例中,图像分割的方法的执行主体可以通过有线或无线连接的方式从本地或通信连接的电子设备获取包含前景的待分割图像。其中,上述待分割图像中可以包括至少一个前景。上述至少一个前景可以是相互不重叠的前景,也可以是存在部分重叠的前景,在此不做限定。上述前景通常可以用于指示图像分割所针对的对象,例如人像,卡通人像,特定物像(例如马的图像、狗的图像、建筑物的图像等)。
S102,将待分割图像输入至预先训练的图像分割模型,生成待分割图像对应的分割结果图。
在本实施例中,上述执行主体可以通过各种方式将待分割图像输入至预先训练的图像分割模型,生成待分割图像对应的分割结果图。其中,上述图像分割模型可以用于表征分割结果图与待分割图像之间的对应关系。上述分割结果图可以用于指示将上述待分割图像的前景和背景进行分离后的结果。上述分割结果图中的像素值可以用于表示该像素值所属的类别,例如0代表背景,1代表前景。
在本实施例中,上述图像分割模型中可以包括编码器、解码器和连接层。上述连接层可以用于将上述编码器的隐层所提取的特征输入至上述解码器的隐层。其中,上述隐层通常用于指中间层,其通常用于特征提取。作为示例,上述连接层可以包括1×1的卷积核。通常,上述编码器还可以包括上采样层和输出层(例如softmax层)。
在本实施例中,作为示例,上述执行主体可以将步骤S101所获取的待分割图像输入至上述图像分割模型所包括的编码器,得到上述编码器的输出层输出的编码特征和上述编码器的隐层所提取的隐层特征。上述执行主体还可以将上述编码特征输入至上述解码器的输入层,以及利用上述连接层将上述隐层特征输入至上述解码器的隐层,从而得到上述解码器的输出层输出的分割结果图。
本公开的上述实施例提供的方法,通过利用包括编码器、解码器和用于将上述编码器的隐层所提取的特征输入至上述解码器的隐层的连接层的图像分割模型,可以将编码器和解码器跨层连接起来,实现对底层纹理特征的整合,有利于生成更精细的掩码。而且,上述连接层可以重用编码器所提取的特征,提高了特征的利用率,无需增加额外的计算成本。从而有助于在几乎不增加计算量的前提下提高图像分割的效果,有利于在资源有限的计算平台(诸如没有强大GPU的智能手机或基于浏览器上运行的JavaScript的聊天网页)上实现图像分割效果和推理速度的平衡。
在本实施例的一些可选的实现方式中,上述编码器中可以包括卷积层和第一数目个通道混洗卷积单元。上述通道混洗卷积单元可以用于重组通过不同组的分组卷积所提取的特征。上述解码器中可以包括第二数目个深度可分离卷积(Depthwise SeparableConvolution)单元。上述连接层可以用于将上述卷积层输出的特征输入至上述解码器的深度可分离卷积单元。
在这些实现方式中,作为示例,上述通道混洗卷积单元例如可以是ShuffleNetV2单元。
基于上述可选的实现方式,上述执行主体可以按照如下步骤将待分割图像输入至预先训练的图像分割模型,生成待分割图像对应的分割结果图:
第一步,将待分割图像输入至卷积层,生成第一特征图。
在这些实现方式中,上述执行主体可以将上述步骤S101所获取的待分割图像输入至卷积层,生成第一特征图。通常,上述第一特征图的分辨率低于上述待分割图像的分辨率。
第二步,将第一特征图输入至第一数目个通道混洗卷积单元,生成第二特征图。
在这些实现方式中,上述执行主体可以将上述第一步所生成的第一特征图输入至第一数目个通道混洗卷积单元,生成第二特征图。通常,上述第二特征图的分辨率低于上述第一特征图的分辨率。
可选地,上述执行主体还可以先将上述第一步所生成的第一特征图进行最大池化,再将池化后的特征图输入至上述第一数目个通道混洗卷积单元,生成第二特征图。
第三步,将第一特征图输入至连接层,生成第三特征图。
在这些实现方式中,上述执行主体可以将上述第一步所生成的第一特征图输入至上述连接层,生成第三特征图。通常,上述第三特征图的分辨率大于上述第二特征图的分辨率。作为示例,当上述连接层包括1×1卷积核时,上述第三特征图的分辨率可以与上述第一特征图的分辨率一致。
第四步,将第二特征图和第三特征图输入至第二数目个深度可分离卷积单元,生成分割结果图。
在这些实现方式中,上述执行主体可以将上述第二步所生成的第二特征图和上述第三步所生成的第三特征图输入至第二数目个深度可分离卷积单元中相应单元的输入层,从而生成分割结果图。通常,与上述第三特征图对应的深度可分离卷积单元位于更深的深度(即更接近上述编码器的输出层)。
基于上述可选的实现方式,本方案可以利用具有通道混洗卷积单元的编码器更加有效地提取特征,同时与包括第二数目个深度可分离卷积单元的解码器相互配合,提高解码效率。从而有助于在提高推理速度的前提下提高图像分割的效果。
在本实施例的一些可选的实现方式中,上述图像分割模型基于训练样本训练得到。
在这些实现方式中,上述图像分割模型可以包括各种通过机器学习方式训练得到的用于图像分割的深度学习模型。作为示例,上述图像分割模型可以基于初始模型利用训练样本集合通过有监督训练得到。上述训练样本集合中的训练样本可以包括包含前景的样本图像和与样本图像对应的标注信息。上述与样本图像对应的标注信息可以包括该样本图像对应的样本图像分割结果图。上述样本图像分割结果图可以用于区分样本图像的前景和背景。上述样本图像分割结果图中的像素值可以用于表示该像素值所属的类别,例如0代表背景,1代表前景。
基于上述可选的实现方式,上述训练样本包括的样本图像可以通过以下步骤得到:
第一步,获取原始尺寸的初始样本图像。
在这些实现方式中,上述执行主体可以通过有线或无线的方式从通信连接的电子设备或本地获取原始尺寸的初始样本图像。其中,原始尺寸的上述初始样本图像可以包括各种比例,例如横屏图片、竖屏图片、方屏图片等。其中,上述横屏图片可以用于指示宽高比大于1的图片。上述竖屏图片可以用于指示宽高比小于1的图片。上述方屏图片可以用于指示宽高比接近1的图片。
第二步,按照与原始尺寸的宽高比一致的纵横比对初始样本图像进行缩放,生成不超过预设尺寸的缩放图。
在这些实现方式中,上述执行主体可以首先根据上述第一步的原始尺寸确定纵横比。其中,上述纵横比可以是预先设定的比例,例如2∶3、3∶4、9∶16、1∶1、16∶9、4∶3、3∶2等。上述纵横比也可以是与上述原始尺寸接近或一致的比例,此处不作限定。上述执行主体可以按照所确定的纵横比对上述第一步所获取的原始尺寸的初始样本图像进行缩放,生成不超过预设尺寸的缩放图。上述预设尺寸通常可以是预设设定的样本图像所要求的尺寸,例如224×224,128×128等。
在这些实现方式中,作为示例,当原始尺寸为92×160(宽×高),预设尺寸为128×128时,上述执行主体可以按照1∶1的比例对上述92×160的初始样本图像进行缩放,得到尺寸为128×74的缩放图。
第三步,对预设尺寸与缩放图之间的空白进行填充,生成样本图像。
在这些实现方式中,上述执行主体可以利用填充(padding)技术补齐上述预设尺寸与上述第二步缩放图之间的空白,生成尺寸为128×128的样本图像。
基于上述可选的实现方式,本方案可以利用与原始尺寸的宽高比一致的纵横比对初始样本图像进行缩放,并利用填充技术生成符合尺寸要求的样本图像,从而可以避免直接按照预设尺寸的要求对原图进行缩放而造成的因较大形变而引起失真(参见图1b),降低图像质量,进而影响模型训练效果。
在本实施例的一些实现方式中,上述前景可以包括人像。上述图像分割模型可以基于语义连通性损失训练得到。上述语义连通性损失可以基于训练样本包括的样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域的匹配而确定。上述样本图像分割结果图中包括的至少一个连通域可以与前景相匹配。通常,上述连通域的数目不大于上述前景的数目。作为示例,当样本图像中包含两个非重叠的人像时,对应的样本图像分割结果图中可以包括2个连通域。作为又一示例,当样本图像中包含两个相互重叠的人像时,对应的样本图像分割结果图中可以包括1个连通域。上述图像分割结果预测图通过将上述训练样本包括的样本图像输入至上述图像分割模型而得到。
在这些实现方式中,上述训练样本可以包括包含前景的样本图像和对应的样本图像分割结果图。上述样本图像分割结果图中可以包括与前景相匹配的至少一个连通域。上述图像分割结果预测图中可以包括目标数目个连通域。上述损失值可以用于表征上述图像分割结果预测图和样本图像分割结果图在连通域维度上的匹配程度。
在这些实现方式中,上述执行主体可以预先获取初始图像分割模型。其中,上述初始图像分割模型可以包括各种能够用于图像分割的深度学习模型,例如前述的包括编码器、解码器和连接层的图像分割模型。上述执行主体可以将上述预先获取的训练样本的样本图像输入至上述预先获取的初始图像分割模型,从而得到与输入的样本图像对应的图像分割结果预测图。其中,上述图像分割结果预测图中的像素可以用于预测输入上述初始图像分割模型的图像中该像素属于前景或背景的可能性。上述图像分割结果预测图中可以包括目标数目个连通域。
在这些实现方式中,上述执行主体可以通过各种方式对上述样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域进行匹配。而后,根据匹配结果,上述执行主体可以利用预设的语义连通损失函数生成语义连通性损失值。
作为示例,参见图1c,如图1c中的图(i)所示,上述样本图像分割结果图(如图中G所示)和图像分割结果预测图(如图中P所示)中分别包括4个和5个连通域。继续参见图(ii),上述执行主体可以将上述样本图像分割结果图和图像分割结果预测图中的每个连通域作为一个连通分量。并且上述执行主体可以对上述各个连通域进行标记(例如p1、p2、p3、p4、p5和g1、g2、g3、g4),以区分各个不同的连通域。而后,参见图(iii),上述执行主体可以将上述样本图像分割结果图和上述图像分割结果预测图进行匹配,生成匹配结果。可见,彼此相交的连通域有3对(即p2和g2、p5和g3、p4和g4,上述样本图像分割结果图中有1个独立的连通域(即g1)。上述图像分割结果预测图中有2个独立的连通域(即p1和p2)。
而后,上述执行主体可以利用预设的语义连通损失函数生成语义连通性损失值。其中,上述预设的语义连通损失函数通常用于表示样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域的匹配程度。通常,上述匹配程度越高,上述预设的语义连通损失函数对应的语义连通性损失值越低。同理,上述匹配程度越低,上述预设的语义连通损失函数对应的语义连通性损失值越高。
在这些实现方式中,上述预设的语义连通损失函数可以包括各种形式,例如样本图像分割结果图中独立的连通域的个数,图像分割结果预测图中独立的连通域的个数,1-彼此相交的连通域的对数/样本图像分割结果图中连通域的个数,1-彼此相交的连通域的对数/图像分割结果预测图中连通域的个数等等。
在这些实现方式中,根据上述所生成的语义连通性损失值,上述执行主体可以通过各种方式调整上述预先获取的初始图像分割模型的参数。作为示例,上述执行主体可以利用各种机器学习方式(例如采用小批量梯度下降和反向传播方式)对上述初始图像分割模型的参数进行调整,训练得到上述图像分割模型。可选地,上述执行主体还可以将上述语义连通性损失值作为总损失值的分量,根据上述总损失值调整初始图像分割模型的参数。其中,上述总损失值还可以结合各种用于度量分割损失的函数,例如交叉熵损失、lovasz损失、dice损失、RMI(Region Mutual Information,区域互信息)损失。
基于上述可选的实现方式,本方案通过引入训练样本中与包含前景的样本图像对应的样本图像分割结果图中包括的至少一个连通域与上述图像分割结果预测图中包括的目标数目个连通域的匹配,将图像分割结果预测图中前景的完整性转换为与样本图像分割结果图相比较后的语义连通性损失值,将上述语义连通性损失值作为总损失的一部分用以指导所提出的包含编码器、解码器和连接层的图像分割模型的训练,从而提升了进一步提升了上述图像分割模型的效果。
可选地,基于上述可选的实现方式,上述语义连通性损失可以通过以下步骤而确定:
第一步,对于样本图像分割结果图中包括的至少一个连通域中的连通域,基于该连通域与图像分割结果预测图中包括的目标数目个连通域的匹配,生成该连通域对应的连通值。
在这些实现方式中,对于样本图像分割结果图中包括的至少一个连通域中的连通域,上述执行主体可以将该连通域与图像分割结果预测图中包括的目标数目个连通域进行匹配。基于上述匹配结果,上述执行主体可以通过各种方式生成该连通域对应的连通值。从而,上述执行主体可以生成与上述样本图像分割结果图中包括的连通域的数目一致的连通值。其中,上述连通值可以用于表征样本图像分割结果图中包括的连通域与图像分割结果预测图中包括的连通域之间的匹配程度。通常,上述匹配程度越高,上述连通值越高。同理,上述匹配程度越低,上述连通值越低。作为示例,上述连通值可以通过样本图像分割结果图中包括的连通域与图像分割结果预测图中包括的连通域之间的交并比来计算。
在这些实现方式中,作为示例,当上述样本图像分割结果图中包括的连通域(例如连通域g1)与图像分割结果预测图中包括的1个连通域(例如连通域p1)相交时,上述执行主体可以利用连通域g1与连通域p1的交集与并集之间的比值来生成连通域g1的连通值。作为又一示例,当上述样本图像分割结果图中包括的连通域(例如连通域g1)与图像分割结果预测图中包括的3个连通域(例如连通域p1、p2、p3)相交时,上述执行主体可以将连通域g1与连通域p1、与连通域p2、与连通域p3的交集与并集之间的比值这三者的平均值确定为所生成的连通域g1的连通值。
在这些实现方式中,作为示例,当上述样本图像分割结果图中包括的连通域(例如连通域g1)不与图像分割结果预测图中包括的任意一个连通域相交时,上述执行主体可以确定该连通域g1的连通值为0。
第二步,根据所生成的与至少一个连通域分别对应的连通值,生成语义连通性损失值。
在这些实现方式中,根据上述第一步所生成的与至少一个连通域分别对应的连通值,上述执行主体可以通过各种方法生成语义连通性损失值。其中,上述语义连通性损失值通常与上述连通值负相关。
在这些实现方式中,上述执行主体可以对上述第一步所生成的各连通值求平均,得到平均值。而后,上述执行主体可以将预设值与上述平均值之差确定为上述语义连通性损失值。作为示例,当上述连通值基于前述交并比的方式生成时,上述平均值的范围为[0,1]。上述预设值可以为1,从而上述语义连通性损失值的范围也为[0,1]。
基于上述可选的实现方式,本方案可以根据样本图像分割结果图中包括的连通域与图像分割结果预测图中包括的各个连通域进行匹配,生成样本图像分割结果图中包括的各连通域分别对应的连通值,再根据所生成的各连通值生成语义连通性损失值。从而丰富了语义连通性损失值的生成方式,提升了连通值生成方式的健壮性(robustness)。而且,针对样本图像分割结果图中包括的各个连通域分别生成连通值,可以更为准确地反映图像分割结果预测图与样本图像分割结果图在连通域维度上一一对应的完整性差异,从而生成效果更好的图像分割模型。
可选地,基于该连通域与图像分割结果预测图中包括的目标数目个连通域的匹配,上述执行主体可以按照以下步骤生成该连通域对应的连通值:
第一步,对于样本图像分割结果图中包括的至少一个连通域中的连通域,基于该连通域与图像分割结果预测图中相交的连通域的交并比,生成该连通域对应的连通值。
在这些实现方式中,针对上述样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域存在相交的连通域的情况,对于样本图像分割结果图中包括的至少一个连通域中的连通域,上述执行主体可以基于该连通域与图像分割结果预测图中相交的连通域的交并比,通过各种方式生成该连通域对应的连通值。
在这些实现方式中,作为示例,当上述样本图像分割结果图中包括的连通域(例如连通域g1)与图像分割结果预测图中包括的1个连通域(例如连通域p1)相交时,上述执行主体可以利用连通域g1与连通域p1的交集与并集之间的比值来生成连通域g1的连通值。作为又一示例,当上述样本图像分割结果图中包括的连通域(例如连通域g1)与图像分割结果预测图中包括的3个连通域(例如连通域p1、p2、p3)相交时,上述执行主体可以将连通域g1与连通域p1、与连通域p2、与连通域p3的交集与并集之间的比值这三者的平均值确定为所生成的连通域g1的连通值。作为又一示例,当上述样本图像分割结果图中包括的连通域(例如连通域g1)不与图像分割结果预测图中包括的任意一个连通域相交时,上述执行主体可以确定该连通域g1的连通值为0。
第二步,将所生成的至少一个连通域进行求和。
第三步,将求和结果与目标值的比值确定为连通总值。
在这些实现方式中,上述目标值可以基于上述样本图像分割结果图和上述图像分割结果预测图中的相交的连通域和未相交的连通域的数目而确定。作为示例,上述目标值可以是匹配成对连通域的对数与孤立连通域(即未匹配成对的连通域)的数目之和。
第四步,利用与连通总值负相关的语义连通损失函数根据连通总值生成语义连通性损失值。
在这些实现方式中,上述执行主体可以利用与上述连通总值负相关的语义连通损失函数根据连通总值生成语义连通性损失值。作为示例,上述执行主体可以将预设值与上述连通总值之差确定为上述语义连通性损失值。其中,上述预设值例如可以为1,从而上述语义连通性损失值的范围可以为[0,1]。
基于上述可选的实现方式,本方案可以通过更加细致的语义连通性损失值确定方式为模型的参数调节方向提供指引,从而生成效果更好的图像分割模型。
可选地,基于上述可选的实现方式,上述第三步中的目标值可以包括上述样本图像分割结果图和上述图像分割结果预测图中的相交的连通域的匹配对数与上述图像分割结果预测图中未相交的连通域(即孤立连通域)的数目之和。
基于上述可选的实现方式,本方案可以避免上述样本图像分割结果图中本身包含的孤立连通域的数目的影响,更准确地衡量上述图像分割结果预测图对应的连通性。从而有助于进一步提升图像分割模型的效果。
继续参见图2a和图2b,图2a、图2b分别是根据本公开第二实施例的图像分割模型的结构示意图和方法示意图200。该图像分割的方法包括以下步骤:
S201,获取包含前景的待分割图像。
S202,将待分割图像输入至卷积层,生成第一特征图。
S203,将第一特征图输入至第一数目个通道混洗卷积单元,生成第二特征图。
在本实施例中,上述第一数目个通道混洗卷积单元可以被划分为串联连接的第三数目个特征提取阶段。上述第三数目和各特征提取阶段中不同层所对应的通道的数目分别小于各自对应的预设阈值。从而可以通过压缩特征提取阶段和对应的通道数目来减少计算量,实现更加轻量化的结构。
S204,将第一特征图输入至连接层,生成第三特征图。
上述S201、S202、S203、S204可以分别与前述实施例中的S101、S102及其可选的实现方式一致,上文针对S101、S102及其可选的实现方式的相应描述也适用于S201、S202、S203、S204,此处不再赘述。
S205,将第二特征图输入至解码器包括的第一个深度可分离卷积单元,生成第四特征图。
在本实施例中,图像分割的方法的执行主体可以将上述步骤S203所生成的第二特征图输入至解码器包括的第一个(即距离上述解码器的输出层最远的)深度可分离卷积单元,生成第四特征图。
S206,对第四特征图进行上采样,生成与第一特征图的分辨率一致的第五特征图。
在本实施例中,上述执行主体可以通过各种方式对上述步骤S205所生成的第四特征图进行上采样,生成与上述第三特征图的分辨率一致的第五特征图。
S207,将第五特征图与第三特征图进行融合。
在本实施例中,上述执行主体可以采用各种方式将上述步骤S206所生成的第五特征图与上述第三特征图进行融合。作为示例,上述融合可以采用相加(add)或合并(concat)的方式,此处不作限定。
S208,将融合后的特征图输入至解码器包括的更深层次的深度可分离卷积单元,生成分割结果图。
在本实施例中,上述执行主体可以将上述步骤S207所得到的融合后的特征图输入至上述解码器包括的更深层次的深度可分离卷积单元,生成分割结果图。其中,上述更深层次的深度可分离卷积单元可以是更靠近上述解码器的输出层的深度可分离卷积单元。作为示例,上述更深层次的深度可分离卷积单元可以是上述解码器包括的第二个深度可分离卷积单元。
从图2a和图2b中可以看出,本实施例中的图像分割的方法的流程200体现了利用被划分为串联连接的特征提取阶段较少的通道混洗卷积单元和较少的通道数进行特征提取以及连接层所连接的编码器与解码器中的特定层,进一步减少计算量和提高所生成的特征的准确性,实现了以更加轻量化的结构实现较好的图像分割效果。
继续参见图3,图3是根据本公开的实施例的图像分割的方法的应用场景的一个示意图。在图3的应用场景中,用户301、302使用终端设备303进行视频会议。终端设备303获取包含用户301、302的图像304。终端设备将图像304输入至预先训练的图像分割模型305,得到分割结果图306。其中,上述图像分割模型305中可以包括编码器3051、解码器3052和用于将编码器3051的隐层所提取的特征输入至解码器3052的隐层的连接层3053。
目前,现有技术之一通常是采用较为复杂的图像分割模型,而结构简单的模型难以在资源有限的计算平台上取得较为满意的图像分割效果。而本公开的上述实施例提供的方法,通过利用包括编码器、解码器和用于将上述编码器的隐层所提取的特征输入至上述解码器的隐层的连接层的图像分割模型,可以将编码器和解码器跨层连接起来,实现对底层纹理特征的整合,有利于生成更精细的掩码。而且,上述连接层可以重用编码器所提取的特征,提高了特征的利用率,无需增加额外的计算成本。从而有助于在几乎不增加计算量的前提下提高图像分割的效果,有利于在资源有限的计算平台(诸如没有强大GPU的智能手机或基于浏览器上运行的JavaScript的聊天网页)上实现图像分割效果和推理速度的平衡。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了图像分割的装置的一个实施例,该装置实施例与图1a或图2b所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例提供的图像分割的装置400包括图像获取单元401和图像分割单元402。其中,图像获取单元401,被配置成获取包含前景的待分割图像;图像分割单元402,被配置成将待分割图像输入至预先训练的图像分割模型,生成待分割图像对应的分割结果图,其中,图像分割模型中包括编码器、解码器和连接层,连接层用于将编码器的隐层所提取的特征输入至解码器的隐层。
在本实施例中,图像分割的装置400中:图像获取单元401和图像分割单元402的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤S101、S102的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述编码器中可以包括卷积层和第一数目个通道混洗卷积单元。上述通道混洗卷积单元可以用于重组通过不同组的分组卷积所提取的特征。上述解码器中可以包括第二数目个深度可分离卷积单元。上述连接层可以用于将卷积层输出的特征输入至解码器的深度可分离卷积单元。上述图像分割单元402可以包括:第一生成模块(图中未示出),被配置成将待分割图像输入至卷积层,生成第一特征图;第二生成模块(图中未示出),被配置成将第一特征图输入至第一数目个通道混洗卷积单元,生成第二特征图;第三生成模块(图中未示出),被配置成将第一特征图输入至连接层,生成第三特征图;第四生成模块(图中未示出),被配置成将第二特征图和第三特征图输入至第二数目个深度可分离卷积单元,生成分割结果图。
在本实施例的一些可选的实现方式中,上述第一数目个通道混洗卷积单元可以被划分为串联连接的第三数目个特征提取阶段。上述第三数目和各特征提取阶段中不同层所对应的通道的数目分别小于各自对应的预设阈值。上述第四生成模块可以被进一步配置成:将第二特征图输入至解码器包括的第一个深度可分离卷积单元,生成第四特征图;对第四特征图进行上采样,生成与第三特征图的分辨率一致的第五特征图;将第五特征图与第三特征图进行融合;将融合后的特征图输入至解码器包括的更深层次的深度可分离卷积单元,生成分割结果图。
在本实施例的一些可选的实现方式中,上述图像分割模型可以基于训练样本训练得到。上述训练样本包括的样本图像可以通过以下步骤得到:获取原始尺寸的初始样本图像;按照与原始尺寸的宽高比一致的纵横比对初始样本图像进行缩放,生成不超过预设尺寸的缩放图;对预设尺寸与缩放图之间的空白进行填充,生成样本图像。
在本实施例的一些可选的实现方式中,上述前景可以包括人像。上述图像分割模型可以基于语义连通性损失训练得到。上述语义连通性损失可以基于训练样本包括的样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域的匹配而确定。上述样本图像分割结果图中包括的至少一个连通域可以与前景相匹配。上述图像分割结果预测图可以通过将训练样本包括的样本图像输入至图像分割模型而得到。
在本实施例的一些可选的实现方式中,上述语义连通性损失可以通过以下步骤而确定:对于样本图像分割结果图中包括的至少一个连通域中的连通域,基于该连通域与图像分割结果预测图中包括的目标数目个连通域的匹配,生成该连通域对应的连通值;根据所生成的与至少一个连通域分别对应的连通值,生成语义连通性损失值。
在本实施例的一些可选的实现方式中,上述基于该连通域与图像分割结果预测图中包括的目标数目个连通域的匹配,生成该连通域对应的连通值,包括:对于样本图像分割结果图中包括的至少一个连通域中的连通域,基于该连通域与图像分割结果预测图中相交的连通域的交并比,生成该连通域对应的连通值;将所生成的至少一个连通域进行求和;将求和结果与目标值的比值确定为连通总值,其中,目标值可以基于样本图像分割结果图和图像分割结果预测图中的相交的连通域和未相交的连通域的数目而确定;利用与连通总值负相关的语义连通损失函数根据连通总值生成语义连通性损失值。
在本实施例的一些可选的实现方式中,上述目标值可以包括样本图像分割结果图和图像分割结果预测图中的相交的连通域的匹配对数与图像分割结果预测图中未相交的连通域的数目之和。
本公开的上述实施例提供的装置,通过图像分割单元402利用包括编码器、解码器和用于将上述编码器的隐层所提取的特征输入至上述解码器的隐层的连接层的图像分割模型对图像获取单元401所获取的待分割图像进行分割,可以将编码器和解码器跨层连接起来,实现对底层纹理特征的整合,有利于生成更精细的掩码。而且,上述连接层可以重用编码器所提取的特征,提高了特征的利用率,无需增加额外的计算成本。从而有助于在几乎不增加计算量的前提下提高图像分割的效果,有利于在资源有限的计算平台(诸如没有强大GPU的智能手机或基于浏览器上运行的JavaScript的聊天网页)上实现图像分割效果和推理速度的平衡。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如图像分割的方法。例如,在一些实施例中,图像分割的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的图像分割的方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像分割的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (11)

1.一种图像分割的方法,包括:
获取包含前景的待分割图像;
将所述待分割图像输入至预先训练的图像分割模型,生成所述待分割图像对应的分割结果图,其中,所述图像分割模型中包括编码器、解码器和连接层,所述连接层用于将所述编码器的隐层所提取的特征输入至所述解码器的隐层,所述图像分割模型基于语义连通性损失训练得到,所述语义连通性损失基于训练样本包括的样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域的匹配而确定,所述样本图像分割结果图中包括的至少一个连通域与前景相匹配,所述图像分割结果预测图通过将所述训练样本包括的样本图像输入至所述图像分割模型而得到。
2.根据权利要求1所述的方法,其中,所述编码器中包括卷积层和第一数目个通道混洗卷积单元,所述通道混洗卷积单元用于重组通过不同组的分组卷积所提取的特征,所述解码器中包括第二数目个深度可分离卷积单元,所述连接层用于将所述卷积层输出的特征输入至所述解码器的深度可分离卷积单元;以及
所述将所述待分割图像输入至预先训练的图像分割模型,生成所述待分割图像对应的分割结果图,包括:
将所述待分割图像输入至所述卷积层,生成第一特征图;
将所述第一特征图输入至所述第一数目个通道混洗卷积单元,生成第二特征图;
将所述第一特征图输入至所述连接层,生成第三特征图;
将所述第二特征图和所述第三特征图输入至所述第二数目个深度可分离卷积单元,生成所述分割结果图。
3.根据权利要求2所述的方法,其中,所述第一数目个通道混洗卷积单元被划分为串联连接的第三数目个特征提取阶段,所述第三数目和各特征提取阶段中不同层所对应的通道的数目分别小于各自对应的预设阈值;以及
所述将所述第二特征图和所述第三特征图输入至所述第二数目个深度可分离卷积单元,生成所述分割结果图,包括:
将第二特征图输入至解码器包括的第一个深度可分离卷积单元,生成第四特征图;
对所述第四特征图进行上采样,生成与所述第三特征图的分辨率一致的第五特征图;
将所述第五特征图与所述第三特征图进行融合;
将融合后的特征图输入至所述解码器包括的更深层次的深度可分离卷积单元,生成所述分割结果图。
4.根据权利要求1-3之一所述的方法,其中,所述图像分割模型基于训练样本训练得到,所述训练样本包括的样本图像通过以下步骤得到:
获取原始尺寸的初始样本图像;
按照与所述原始尺寸的宽高比一致的纵横比对所述初始样本图像进行缩放,生成不超过预设尺寸的缩放图;
对所述预设尺寸与所述缩放图之间的空白进行填充,生成所述样本图像。
5.根据权利要求1-3之一所述的方法,其中,所述前景包括人像。
6.根据权利要求5所述的方法,其中,所述语义连通性损失通过以下步骤而确定:
对于所述样本图像分割结果图中包括的至少一个连通域中的连通域,基于该连通域与所述图像分割结果预测图中包括的目标数目个连通域的匹配,生成该连通域对应的连通值;
根据所生成的与所述至少一个连通域分别对应的连通值,生成语义连通性损失值。
7.根据权利要求6所述的方法,其中,所述基于该连通域与所述图像分割结果预测图中包括的目标数目个连通域的匹配,生成该连通域对应的连通值,包括:
对于所述样本图像分割结果图中包括的至少一个连通域中的连通域,基于该连通域与所述图像分割结果预测图中相交的连通域的交并比,生成该连通域对应的连通值;
将所生成的至少一个连通域进行求和;
将求和结果与目标值的比值确定为连通总值,其中,所述目标值基于所述样本图像分割结果图和所述图像分割结果预测图中的相交的连通域和未相交的连通域的数目而确定;
利用与所述连通总值负相关的语义连通损失函数根据所述连通总值生成所述语义连通性损失值。
8.根据权利要求7所述的方法,其中,所述目标值包括所述样本图像分割结果图和所述图像分割结果预测图中的相交的连通域的匹配对数与所述图像分割结果预测图中未相交的连通域的数目之和。
9.一种图像分割的装置,包括:
图像获取单元,被配置成获取包含前景的待分割图像;
图像分割单元,被配置成将所述待分割图像输入至预先训练的图像分割模型,生成所述待分割图像对应的分割结果图,其中,所述图像分割模型中包括编码器、解码器和连接层,所述连接层用于将所述编码器的隐层所提取的特征输入至所述解码器的隐层,所述图像分割模型基于语义连通性损失训练得到,所述语义连通性损失基于训练样本包括的样本图像分割结果图中包括的至少一个连通域与图像分割结果预测图中包括的目标数目个连通域的匹配而确定,所述样本图像分割结果图中包括的至少一个连通域与前景相匹配,所述图像分割结果预测图通过将所述训练样本包括的样本图像输入至所述图像分割模型而得到。
10.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
11.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
CN202111506325.3A 2021-12-10 2021-12-10 图像分割的方法、装置、电子设备以及存储介质 Active CN114187318B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111506325.3A CN114187318B (zh) 2021-12-10 2021-12-10 图像分割的方法、装置、电子设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111506325.3A CN114187318B (zh) 2021-12-10 2021-12-10 图像分割的方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
CN114187318A CN114187318A (zh) 2022-03-15
CN114187318B true CN114187318B (zh) 2023-05-05

Family

ID=80543071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111506325.3A Active CN114187318B (zh) 2021-12-10 2021-12-10 图像分割的方法、装置、电子设备以及存储介质

Country Status (1)

Country Link
CN (1) CN114187318B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494275B (zh) * 2022-04-15 2022-08-05 北京美摄网络科技有限公司 一种用于移动终端图像分割模型训练方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402258A (zh) * 2020-03-12 2020-07-10 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100647B2 (en) * 2018-09-10 2021-08-24 Google Llc 3-D convolutional neural networks for organ segmentation in medical images for radiotherapy planning
CN110232696B (zh) * 2019-06-20 2024-03-08 腾讯科技(深圳)有限公司 一种图像区域分割的方法、模型训练的方法及装置
CN111899244B (zh) * 2020-07-30 2021-02-12 推想医疗科技股份有限公司 图像分割、网络模型的训练方法及装置,及电子设备
CN112580567B (zh) * 2020-12-25 2024-04-16 深圳市优必选科技股份有限公司 一种模型获取方法、模型获取装置及智能设备
CN113487618B (zh) * 2021-09-07 2022-03-08 北京世纪好未来教育科技有限公司 人像分割方法、装置、电子设备及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402258A (zh) * 2020-03-12 2020-07-10 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN114187318A (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN116051668B (zh) 文生图扩散模型的训练方法和基于文本的图像生成方法
CN114445831A (zh) 一种图文预训练方法、装置、设备以及存储介质
CN113901909B (zh) 基于视频的目标检测方法、装置、电子设备和存储介质
CN115861131B (zh) 基于图像生成视频、模型的训练方法、装置及电子设备
CN114429637B (zh) 一种文档分类方法、装置、设备及存储介质
JP2023531350A (ja) サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法
EP4123595A2 (en) Method and apparatus of rectifying text image, training method and apparatus, electronic device, and medium
CN114792355B (zh) 虚拟形象生成方法、装置、电子设备和存储介质
CN114187318B (zh) 图像分割的方法、装置、电子设备以及存储介质
CN116363459A (zh) 目标检测方法、模型训练方法、装置、电子设备及介质
CN113989174B (zh) 图像融合方法和图像融合模型的训练方法、装置
CN114913325A (zh) 语义分割方法、装置及计算机程序产品
CN114120413A (zh) 模型训练方法、图像合成方法、装置、设备及程序产品
CN113205495A (zh) 图像质量评价及模型训练方法、装置、设备和存储介质
EP4123605A2 (en) Method of transferring image, and method and apparatus of training image transfer model
CN114973333B (zh) 人物交互检测方法、装置、设备以及存储介质
CN113361535B (zh) 图像分割模型训练、图像分割方法及相关装置
CN114821116A (zh) 图像的显著性区域提取方法、装置、设备以及存储介质
CN113989152A (zh) 图像增强方法、装置、设备以及存储介质
CN114842066A (zh) 图像深度识别模型训练方法、图像深度识别方法及装置
CN114078097A (zh) 图像去雾模型的获取方法、装置和电子设备
CN114358198A (zh) 实例分割方法、装置及电子设备
CN114820686B (zh) 抠图的方法、装置、电子设备及存储介质
CN116778006B (zh) 图片编码器的建模方法、装置、电子设备及存储介质
CN114758391B (zh) 发型图像确定方法、装置、电子设备、存储介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant