CN110992367B - 对带有遮挡区域的图像进行语义分割的方法 - Google Patents
对带有遮挡区域的图像进行语义分割的方法 Download PDFInfo
- Publication number
- CN110992367B CN110992367B CN201911056289.8A CN201911056289A CN110992367B CN 110992367 B CN110992367 B CN 110992367B CN 201911056289 A CN201911056289 A CN 201911056289A CN 110992367 B CN110992367 B CN 110992367B
- Authority
- CN
- China
- Prior art keywords
- image
- feature map
- model
- network
- semantic segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000011218 segmentation Effects 0.000 claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 6
- 230000005012 migration Effects 0.000 claims description 11
- 238000013508 migration Methods 0.000 claims description 11
- 238000011084 recovery Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 6
- 208000006440 Open Bite Diseases 0.000 claims description 5
- 238000006467 substitution reaction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种对带有遮挡区域的图像进行语义分割的方法,包括:为图像中的遮挡区域生成二值掩模,叠加原始图像与所述二值掩模;根据叠加后的图像,搭建具有编码‑解码结构的遮挡区域图像内容恢复深度神经网络子模型;搭建具有双流结构的深度神经网络作为图像语义分割子模型,并构建所述的遮挡区域图像内容恢复深度神经网络子模型和所述的语义分割子模型的级联模型;对所述级联模型进行训练和验证,通过验证好的级联模型对带有遮挡区域的图像进行语义分割。本方法可以实现对图像的遮挡区域的语义分割,解决图像中存在遮挡的图像内容理解问题。
Description
技术领域
本发明涉及图像语义分割技术领域,尤其涉及一种对带有遮挡区域的图像进行语义分割的方法。
背景技术
图像语义分割是实现图像内容理解的重要方式。但是,目前的图像语义分割方法仅能够对无遮挡的图像进行语义分割,而对于带有遮挡的图像区域,当前的语义分割方法都无法获得正确的结果。
如果能够实现对遮挡的图像区域进行正确的语义分割将会使基于语义分割的图像理解技术更加接近人类图像理解的水平,进一步拓宽语义分割技术在现实中的应用场景,包括无人驾驶技术和自主机器人技术等。
发明内容
本发明提供了一种对带有遮挡区域的图像进行语义分割的方法,以实现对图像的遮挡区域的语义分割,解决图像中存在遮挡的图像内容理解问题。
为了实现上述目的,本发明采取了如下技术方案。
本发明提供了一种对带有遮挡区域的图像进行语义分割的方法,包括:
为图像中的遮挡区域生成二值掩模,叠加原始图像与所述二值掩模;
根据叠加后的图像,搭建具有编码-解码结构的遮挡区域图像内容恢复深度神经网络子模型;
搭建具有双流结构的深度神经网络作为图像的语义分割子模型,并构建所述的遮挡区域图像内容恢复深度神经网络子模型和所述语义分割子模型的级联模型;
对所述级联模型进行训练和验证,通过验证好的级联模型对带有遮挡区域的图像进行语义分割。
优选地,为图像中的遮挡区域生成二值掩模,包括:二值掩模中对应于遮挡区域的像素值被设为1,其余区域的像素值被设置为0。
优选地,叠加原始图像与所述二值掩模,包括:
将二值掩模按下式(1)进行像素取反:
I'm=1-Im (1)
根据下式(2)叠加原始图像与二值掩模:
I′x=Ix⊙I′m (2)
其中,Im为图像二值掩模,I'm为取反后的二值掩模,Ix为原始输入图像,⊙表示按元素相乘运算。
优选地,搭建具有编码-解码结构的遮挡区域图像内容恢复深度神经网络子模型,包括:
在主干网络的从编码器特征图到解码器特征图的跨层连接中引入特征迁移模块,具体包括:
设有来自遮挡区域图像内容恢复深度神经网络子模型的对应于编码器部分的第l层的特征图Fl被连接到遮挡区域图像内容恢复深度神经网络子模型的对应于解码器部分的第L-l层的特征图FL-l,Fl和FL-l被传输给跨接于第l层和第L-l层的特征迁移模块,特征迁移模块按以下方式对特征图Fl和FL-l进行处理:
设RL-l对应于特征图FL-l中的遮挡区域,而对应于非遮挡区域,对于一个来自于特征图FL-l的位置为(i',j')的大小为3×3的特征图片段pL-l(i',j'),如果该图像片段与遮挡区域RL-1有任何重叠,该特征图片段在非遮挡区域的最近邻片段通过下式(3)计算获得:
其中,L指该子模型的总层数,pL-l(i*,j*)为非遮挡区域RL-1中与pL-l(i',j')最近邻的特征图片段,
基于检测结果,将特征图Fl中(i',j')处的3×3的图像片段pl(i',j')用Fl中的(i*,j*)处的特征图片段pl(i*,j*)取代;
在对Fl中对应于遮挡区域的特征图片段进行替换后,得到新的特征图Fl',将Fl'和FL-l沿通道维进行串接,并使用卷积运算进行特征融合。
优选地,搭建具有双流结构的深度神经网络作为图像的语义分割子模型包括:顶网络和底网络两部分,底网络为编码器-解码器结构,其中编码器逐层增加特征的语义信息,而解码器则逐层恢复特征的空间信息;顶网络用于保持特征图的分辨率,在具有双流结构的深度神经网络语义分割子模型的每个特征层上,顶网络和底网络进行信息交换。
优选地,对所述级联模型进行训练和验证,包括:
根据图像遮挡区域内容恢复子网络的输出和语义分割子网络的输出计算相应的损失值,并根据损失值对级联模型进行优化。
由上述本发明的对带有遮挡区域的图像进行语义分割的方法提供的技术方案可以看出,本发明可以实现对图像的遮挡区域的语义分割,解决图像中存在遮挡的图像内容理解问题,进而可以实现对有损毁的图像的语义分割,提高自动驾驶的安全性,在人机交互中更好地判断有遮挡的人的姿态等。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本实施例提供了一种对带有遮挡区域的图像进行语义分割的方法流程图;
图2为图像遮挡区域内容恢复子模型的网络结构图;
图3为图像语义分割子模型网络结构图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤和/或操作,但是并不排除存在或添加一个或多个其他特征、整数、步骤和/或操作的组。应该理解,这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明。
实施例
图1为本实施例提供了一种对带有遮挡区域的图像进行语义分割的方法流程图,包括:
S1为图像中的遮挡区域生成二值掩模,叠加原始图像与所述二值掩模。
二值掩模中对应于遮挡区域的像素值被设为1,其余区域的像素值被设置为0。
将二值掩模按下式(1)进行像素取反:
I'm=1-Im (1)
根据下式(2)叠加原始图像与二值掩模:
I′x=Ix⊙I′m (2)
其中,Im为图像二值掩模,I'm为取反后的二值掩模,Ix为原始输入图像,⊙表示按元素相乘运算。
S2根据叠加后的图像,搭建具有编码-解码结构的遮挡区域图像内容恢复深度神经网络子模型。
以U-Net为主干,在主干网络的从编码器特征图到解码器特征图的跨层连接中引入特征迁移模块,通过特征迁移模块改善遮挡区域的恢复效果,图2为图像遮挡区域内容恢复子模型的网络结构图,特征迁移模块的作用是基于解码器特征图和编码器特征图,使用非遮挡区域的特征图片段改善遮挡区域的特征图片段。
具体包括:
设有来自遮挡区域图像内容恢复深度神经网络子模型的对应于编码器部分的第l层的特征图Fl被连接到遮挡区域图像内容恢复深度神经网络子模型的对应于解码器部分的第L-l层的特征图FL-l,Fl和FL-l被传输给跨接于第l层和第L-l层的特征迁移模块,特征迁移模块按以下方式对特征图Fl和FL-l进行处理:
设RL-l对应于特征图FL-l中的遮挡区域,而对应于非遮挡区域,对于一个来自于特征图FL-l的位置为(i',j')的大小为3×3的特征图片段pL-l(i',j'),如果该图像片段与遮挡区域RL-1有任何重叠,该特征图片段在非遮挡区域的最近邻片段通过下式(3)计算获得:
其中,L指该子模型的总层数,pL-l(i*,j*)为非遮挡区域RL-1中与pL-l(i',j')最近邻的特征图片段;
基于检测结果,将特征图Fl中(i',j')处的3×3的图像片段pl(i',j')用Fl中的(i*,j*)处的特征图片段pl(i*,j*)取代;
上述处理过程可通过由Chen和Schmidt在[T.Q.Chen andM.Schmidt.Fast patch-based styletransfer of arbitrary style.arXiv:1612.04337.2016.]中提出的算法实现。
在对Fl中对应于遮挡区域的特征图片段进行替换后,得到新的特征图Fl',将Fl'和FL-l沿通道维进行串接,并使用卷积运算进行特征融合。具体地,使用下表1中所列卷积运算进行特征融合。
表1
[k×k,d]指定卷积运算对应的卷积核的信息,其中k×k是卷积核的大小,d指卷积核的通道数;D(x)表示能够返回输入参数x特征图通道数的函数。
S3搭建具有双流结构的深度神经网络作为图像语义分割子模型,并构建遮挡区域图像内容恢复深度神经网络子模型和语义分割子模型的级联模型。
图3为图像语义分割子模型网络结构图,参照图3,图像语义分割子模型U-Net为主干,包括:顶网络和底网络两部分,底网络为编码器-解码器结构,其中编码器逐层增加特征的语义信息,而解码器则逐层恢复特征的空间信息;顶网络用于保持特征图的分辨率,在语义分割子模型的每个特征层上,顶网络和底网络进行信息交换。
具体地,包括:设有来自顶网络的第l层的特征图Fl t,该特征图具有与原始输入图像相同的分辨率,首先将其进行下采样得到特征图Fl td,使其与底网络的第l层的特征图Fl b分辨率相同;然后,将Fl td和Fl b沿通道维串接到一起得到Fl b',该步骤对应的信息流如图3中向下箭头所示;接着,用两层卷积核大小为3×3的卷积运算融合串接后的特征图得到特征图Fl b”。
一方面,Fl b”被上采样到与顶网络中的特征图相同的分辨率并使用卷积核大小为1×1的卷积运算将其通道数调整为与顶网络特征图具有相同的通道数,进行按元素的相加运算,该步骤的信息流方向对应于图中的向上箭头;在顶网络中,做完按元素相加后的全分辨率特征图被传递到下一层做进一步处理。
另一方面,将池化操作运用于Fl b”,以降低其空间尺度得到来传递到底层网络的下一层。
底网络处理输入的方式与U-Net处理输入的方式相似。以上过程被重复进行,直到底网络中的特征图被转换成一个单独的向量,然后特征图开始做上采样处理,直到特征图恢复到原始图像大小。
在语义分割子网络的最后一层,顶网络的特征图和底网络的特征图被串接到一起,并进行特征融合。使用下表2中所列卷积运算进行特征融合。
表2
其中,是顶网络的最后一个网络层的特征图。D(x)表示能够返回输入参数x特征图通道数的函数,C为进行语义分割的语义类别的个数。
级联遮挡区域图像内容恢复深度神经网络子模型和语义分割子模型,以构建能够对有遮挡区域的图像进行语义分割的模型,将遮挡区域图像内容恢复深度神经网络子模型的输出传递给语义分割子模型作为输入。
S4对所述级联模型进行训练和验证,通过验证好的级联模型对带有遮挡区域的图像进行语义分割。
根据遮挡区域图像内容恢复深度神经网络子模型的输出和语义分割子网络的输出计算相应的损失值,并根据损失值对级联模型进行优化。
具体地,给定有遮挡图像Ix,对应的二值掩模图像Im用于表示遮挡区域。在二值掩模中,对应于遮挡区域的像素的值是1,而对应于非遮挡区域的像素值是0。采用L2范数计算图像遮挡区域内容恢复的重构损失Lr,表述如下式(4)所示:
Lr=||Im⊙(Ix-Io)|| (4)
其中,符号⊙表示按元素相乘,Io是遮挡区域图像内容恢复深度神经网络子模型的输出。
为得到更为接近自然图像的图像遮挡区域内容恢复结果,除重构损失外,还可以通过使用VGG-16网络作为区分真实图像和生成图像的判别器,来生成对抗损失。具体地,对抗损失如下式(5)计算:
其中,E[]表示对[]中内容求期望值。是带有遮挡图像的图像集,/>是有遮挡的图像对应的真实无遮挡图像的数据集。NetR()为图像遮挡区域内容恢复子网络,D()为区分真实图像和生成图像的判别器。图像内容恢复子网络的损失函数计算如下式(6)所示:
Lcr=Lr+λLa (6)
其中,Lr图像遮挡区域内容恢复的重构损失函数,La为对抗损失,λ是重构损失和对抗损失的组合系数。对于语义分割网络的损失函数,采用下式(7)交叉熵损失函数计算:
其中,N为图像Ix中像素的数量,为将像素i预测为正确标注/>的概率。
最后将叠加了二值掩模的图像输入到级联模型,进行语义分割,即可以得到包括遮挡区域在内的图像的语义分割结果。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (5)
1.一种对带有遮挡区域的图像进行语义分割的方法,其特征在于,包括:
为图像中的遮挡区域生成二值掩模,叠加原始图像与所述二值掩模;
根据叠加后的图像,搭建具有编码-解码结构的遮挡区域图像内容恢复深度神经网络子模型,包括:
在主干网络的从编码器特征图到解码器特征图的跨层连接中引入特征迁移模块,具体包括:
设有来自遮挡区域图像内容恢复深度神经网络子模型的对应于编码器部分的第l层的特征图Fl被连接到遮挡区域图像内容恢复深度神经网络子模型的对应于解码器部分的第L-l层的特征图FL-l,Fl和FL-l被传输给跨接于第l层和第L-l层的特征迁移模块,特征迁移模块按以下方式对特征图Fl和FL-l进行处理:
设RL-l对应于特征图FL-l中的遮挡区域,而对应于非遮挡区域,对于一个来自于特征图FL-l的位置为(i',j')的大小为3×3的特征图片段pL-l(i',j'),如果该特征图片段与遮挡区域RL-1有任何重叠,该特征图片段在非遮挡区域的最近邻片段通过下式(3)计算获得:
其中,L指该子模型的总层数,pL-l(i*,j*)为非遮挡区域RL-1中与pL-l(i',j')最近邻的特征图片段,
基于检测结果,将特征图Fl中(i',j')处的3×3的图像片段pl(i',j')用Fl中的(i*,j*)处的特征图片段pl(i*,j*)取代;
在对Fl中对应于遮挡区域的特征图片段进行替换后,得到新的特征图Fl',将Fl'和FL-l沿通道维进行串接,并使用卷积运算进行特征融合;
搭建具有双流结构的深度神经网络作为图像的语义分割子模型,并构建所述的遮挡区域图像内容恢复深度神经网络子模型和所述语义分割子模型的级联模型;
对所述级联模型进行训练和验证,通过验证好的级联模型对带有遮挡区域的图像进行语义分割。
2.根据权利要求1所述的方法,其特征在于,所述的为图像中的遮挡区域生成二值掩模,包括:二值掩模中对应于遮挡区域的像素值被设为1,其余区域的像素值被设置为0。
3.根据权利要求1所述的方法,其特征在于,所述的叠加原始图像与所述二值掩模,包括:
将二值掩模按下式(1)进行像素取反:
I'm=1-Im (1)
根据下式(2)叠加原始图像与二值掩模:
I′x=Ix⊙I′m (2)
其中,Im为图像二值掩模,I'm为取反后的二值掩模,Ix为原始输入图像,⊙表示按元素相乘运算。
4.根据权利要求1所述的方法,其特征在于,所述的搭建具有双流结构的深度神经网络作为图像的语义分割子模型包括:顶网络和底网络两部分,底网络为编码器-解码器结构,其中编码器逐层增加特征的语义信息,而解码器则逐层恢复特征的空间信息;顶网络用于保持特征图的分辨率,在具有双流结构的深度神经网络语义分割子模型的每个特征层上,顶网络和底网络进行信息交换。
5.根据权利要求1所述的方法,其特征在于,所述的对所述级联模型进行训练和验证,包括:
根据图像遮挡区域内容恢复子网络的输出和语义分割子网络的输出计算相应的损失值,并根据损失值对级联模型进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911056289.8A CN110992367B (zh) | 2019-10-31 | 2019-10-31 | 对带有遮挡区域的图像进行语义分割的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911056289.8A CN110992367B (zh) | 2019-10-31 | 2019-10-31 | 对带有遮挡区域的图像进行语义分割的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110992367A CN110992367A (zh) | 2020-04-10 |
CN110992367B true CN110992367B (zh) | 2024-02-02 |
Family
ID=70082835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911056289.8A Active CN110992367B (zh) | 2019-10-31 | 2019-10-31 | 对带有遮挡区域的图像进行语义分割的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992367B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111556337B (zh) * | 2020-05-15 | 2021-09-21 | 腾讯科技(深圳)有限公司 | 一种媒体内容植入方法、模型训练方法以及相关装置 |
CN112613374A (zh) * | 2020-12-16 | 2021-04-06 | 厦门美图之家科技有限公司 | 人脸可见区域解析与分割方法、人脸上妆方法及移动终端 |
CN113409231A (zh) * | 2021-06-10 | 2021-09-17 | 杭州易现先进科技有限公司 | 一种基于深度学习的ar人像拍照方法和系统 |
CN114972422B (zh) * | 2022-05-07 | 2024-06-07 | 安徽工业大学科技园有限公司 | 图像序列运动遮挡检测方法、装置、存储器和处理器 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201718692D0 (en) * | 2017-11-13 | 2017-12-27 | Univ Oxford Innovation Ltd | Detecting static parts of a scene |
CN109697724A (zh) * | 2017-10-24 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 视频图像分割方法及装置、存储介质、电子设备 |
CN110163822A (zh) * | 2019-05-14 | 2019-08-23 | 武汉大学 | 基于超像素分割与图割的网状物检测与去除方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
-
2019
- 2019-10-31 CN CN201911056289.8A patent/CN110992367B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697724A (zh) * | 2017-10-24 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 视频图像分割方法及装置、存储介质、电子设备 |
GB201718692D0 (en) * | 2017-11-13 | 2017-12-27 | Univ Oxford Innovation Ltd | Detecting static parts of a scene |
CN110163822A (zh) * | 2019-05-14 | 2019-08-23 | 武汉大学 | 基于超像素分割与图割的网状物检测与去除方法和系统 |
Non-Patent Citations (2)
Title |
---|
Xinchen Yan等.Attribute2Image:Conditional Image Generation from Visual Attributes.《European Conference on Computer Vision》.2016,全文. * |
陈龙.辅助视觉中的图像处理关键技术研究.《中国博士学位论文全文数据库(电子期刊)信息科技辑》.2014,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110992367A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992367B (zh) | 对带有遮挡区域的图像进行语义分割的方法 | |
EP3625767B1 (en) | End to end network model for high resolution image segmentation | |
CN108932693B (zh) | 基于人脸几何信息的人脸编辑补全方法及装置 | |
CN112330574B (zh) | 人像修复方法、装置、电子设备及计算机存储介质 | |
WO2020087607A1 (zh) | 一种基于Bi-Skip-Net的图像去模糊方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN112801901A (zh) | 基于分块多尺度卷积神经网络的图像去模糊算法 | |
CN112184585B (zh) | 一种基于语义边缘融合的图像补全方法及系统 | |
CN113870283B (zh) | 人像抠图方法、装置、计算机设备及可读存储介质 | |
CN113076957A (zh) | 一种基于跨模态特征融合的rgb-d图像显著性目标检测方法 | |
US20220414838A1 (en) | Image dehazing method and system based on cyclegan | |
TWI768517B (zh) | 影像品質提昇方法及使用該方法的影像處理裝置 | |
CN107463932A (zh) | 一种使用二进制瓶颈神经网络来抽取图片特征的方法 | |
CN113744153A (zh) | 双分支图像修复伪造检测方法、系统、设备及存储介质 | |
CN115331024A (zh) | 一种基于深度监督和逐步学习的肠道息肉检测方法 | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
CN111753670A (zh) | 注意力修复和关键点检测迭代协同的人脸超分方法 | |
Wang et al. | Msfnet: multistage fusion network for infrared and visible image fusion | |
CN113538229B (zh) | 基于特征循环融合的多帧红外图像超分辨率方法和系统 | |
US20230394306A1 (en) | Multi-Modal Machine Learning Models with Improved Computational Efficiency Via Adaptive Tokenization and Fusion | |
TW202221639A (zh) | 顯著圖產生方法及使用該方法的影像處理系統 | |
CN117495935A (zh) | 一种基于交叉特征提取窗口与动态特征融合窗口的深度补全方法 | |
CN115908205A (zh) | 图像修复方法、装置、电子设备和存储介质 | |
CN116703750A (zh) | 基于边缘注意力和多阶微分损失的图像去雾方法及系统 | |
WO2022141660A1 (zh) | 基于神经网络的高分辨率图像复原方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |