CN110942463A - 一种基于生成对抗网络的视频目标分割方法 - Google Patents

一种基于生成对抗网络的视频目标分割方法 Download PDF

Info

Publication number
CN110942463A
CN110942463A CN201911045144.8A CN201911045144A CN110942463A CN 110942463 A CN110942463 A CN 110942463A CN 201911045144 A CN201911045144 A CN 201911045144A CN 110942463 A CN110942463 A CN 110942463A
Authority
CN
China
Prior art keywords
video
network
frame
matrix
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911045144.8A
Other languages
English (en)
Other versions
CN110942463B (zh
Inventor
李平
张宇
徐向华
王然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Jibei Electric Power Co Ltd
Original Assignee
Hangzhou Electronic Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Electronic Science and Technology University filed Critical Hangzhou Electronic Science and Technology University
Priority to CN201911045144.8A priority Critical patent/CN110942463B/zh
Publication of CN110942463A publication Critical patent/CN110942463A/zh
Application granted granted Critical
Publication of CN110942463B publication Critical patent/CN110942463B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的视频目标分割方法。本发明方法首先将视频输入考虑首帧以及相邻帧分别与当前帧关系的生成网络模型,经过全卷积神经网络及反卷积上采样,获得生成网络视频分割矩阵;其次,利用视频帧及其生成网络视频分割矩阵构建判别网络模型,获得判别矩阵;再次,采取对抗式学习策略交替优化判别网络与生成网络,使得生成网络尽可能生成与真实分割矩阵一致的视频分割矩阵。本发明通过生成对抗网络能够学习得到更符合真实视频目标数据分布的分割结果,同时充分考虑视频内目标的长期关系和短期关系,能够处理视频内目标的复杂变化,如目标快速运动和形状变化,提高了视频目标分割的准确度和鲁棒性。

Description

一种基于生成对抗网络的视频目标分割方法
技术领域
本发明属于计算机技术领域,具体是计算机视觉中的视频目标分割技术领域,涉及一种基于生成对抗网络的视频目标分割方法。
背景技术
随着视频数据规模的急速扩张,对视频做编辑修改的需求迅猛增加,因此研究视频目标分割变得尤为重要。视频目标分割方法在自动驾驶、视频编辑、安防监控等领域有着广阔的应用前景。
图像目标分割是指从给定的图像中找出感兴趣的目标,并对目标类别进行像素级的标注;而视频目标分割针对视频的每一帧进行目标类别的像素级的标注。视频目标分割方法主要考虑三种场景:1)提供第一帧图像标注的半监督视频目标分割;2)无帧图像标注的无监督视频目标分割;3)交互式的视频目标分割(提供模糊的视频帧标注,例如在目标上画一笔作为模糊标注);目前较多方法主要处理第一类半监督视频分割场景。
由于视频内的目标往往会产生大量的复杂变化,如形状、亮度、甚至目标消失,这些问题给视频目标分割带来了巨大的挑战。现有的方法通常使用深度神经网络,主要有两种方法:1)基于检测的方法,具体考虑目标在视频中外观的相似性,一般先使用大规模的图像数据集进行图像目标分割模型的预训练,然后迁移预训练的模型到视频数据集进行视频目标分割模型的训练,并针对指定视频进行调优;2)基于传播的方法,具体利用视频的目标之间存在的关联性(例如动作的连续性),将前一帧的视频目标分割结果作为当前帧的指导信息传入深度神经网络,从而得到当前帧的视频目标分割结果。
综上所述,上述方法的不足点主要表现在两方面:1)基于检测的方法虽然考虑了视频目标的相似性,但没有考虑视频目标的变化;同时由于视频内背景的复杂性,可能存在与目标相似的背景,导致错误的分割结果;2)基于传播的方法虽然考虑了视频目标在时序上的相关性,但没有考虑到长期的目标变化;若出现目标消失,该方法将产生错误分割,且某一帧产生的错误分割信息可能传播到下一帧,导致分割性能受到影响。这些方法在处理视频目标分割任务时,不能很好满足实际视频目标分割的需求,因而迫切需要设计一种能够充分利用视频目标的外观相似性与时序间相关性的方法,达到优越的视频目标分割性能。
发明内容
本发明的目的就是针对现有技术的不足,提供一种基于生成对抗网络的视频目标分割方法,可以有效利用视频目标的长期关系和短期关系应对目标的复杂变化,提高视频目标分割的准确度和鲁棒性。
本发明方法首先获取视频数据集,然后进行如下操作:
步骤(1).利用输入视频中首帧以及相邻帧与当前帧的关系,构建视频生成网络模型,经过全卷积神经网络及反卷积上采样,获得生成网络视频分割矩阵;
步骤(2).利用视频帧及其生成网络视频分割矩阵,构建判别网络模型,获得判别矩阵;
步骤(3).采取对抗式学习策略交替优化判别网络与生成网络,使得生成网络尽可能生成与真实分割矩阵一致的视频分割矩阵;
所述的对抗式学习策略为生成网络和判别网络的优化目标相互冲突并在对抗过程中优化,所述的交替优化指使用随机梯度下降法先优化判别网络再优化生成网络,依次交替优化损失函数;
步骤(4).将新视频输入已训练优化的生成网络模型,获得对应的生成网络视频分割矩阵,即视频目标分割结果。
进一步,步骤(1)的具体方法是:
(1-1).假设输入视频有m帧RGB图像,表示为帧图像集合
Figure BDA0002253937660000021
其中首帧指视频中的第一帧图像F1,每帧图像宽为w,高为h,通道数为3;
(1-2).标注像素级,记为标注集合{Mi|i=1,..,m},其中
Figure BDA0002253937660000022
是宽为w高为h的矩阵,像素级标注Mi的元素取值为{0,1,...,k},k为视频待分割的目标数量,在训练阶段每个视频帧都有对应的像素级标注,处理新视频时仅给出视频首帧的目标标注;
(1-3).处理视频首帧:将首帧F1与对应标注M1输入到全卷积神经网络得到相应的特征表示张量,全卷积神经网络输出的特征表示张量表示为
Figure BDA0002253937660000023
c1为通道数,w1为张量的宽,h1为张量的高,且w1<w、h1<h,得到的首帧对应的特征表示张量记为S1;所述的全卷积神经网络为不包含全连接层且以卷积层为主的神经网络;
(1-4).处理视频后续帧:从视频第二帧起至视频最后一帧记为
Figure BDA0002253937660000024
首先将视频帧Fi和前一帧对应的像素级标注Mi-1输入相同全卷积神经网络,得到相应的特征表示张量,记为
Figure BDA0002253937660000031
然后将后续帧Fi对应的特征表示张量Si与首帧对应的特征表示张量S1依次拼接,得到拼接特征表示张量,记为
Figure BDA0002253937660000032
经过多个反卷积层的上采样操作,得到大小与视频帧一致的生成网络视频分割矩阵,记为
Figure BDA0002253937660000033
即产生m-1个目标分割结果。
进一步,步骤(2)的具体方法是:
(2-1).将视频帧Fi及其生成网络的视频分割矩阵Pi,i=2,...,m,输入到判别网络,该判别网络是由C个卷积层、归一化层和激活函数组成的模块构成的卷积神经网络,C≥3;
(2-2).判别网络将输出N×N的判别矩阵Ai,矩阵元素为0或1,N<w,N<h,将视频帧Fi与真实视频目标标注Mi输入到判别网络得到相同大小的判别矩阵Ai′,判别矩阵Ai′作为真实的判别矩阵且每个元素对应视频帧的小块区域,判别矩阵Ai每个矩阵元素应与判别矩阵Ai′每个矩阵元素尽可能相同。
进一步,步骤(3)的具体方法是:
(3-1).首先计算生成对抗网络的损失函数,即条件生成对抗网络损失,表示为:
Figure BDA0002253937660000034
其中,x表示输入的视频帧Fi,y表示视频帧Fi对应的像素级标注Mi,z表示随机噪声,G(x,z)表示生成网络产生的预测标注Pi,Ez,y[*]和Ex,z[*]分别表示随机变量z,y的期望和随机变量x,z的期望;然后计算生成网络的损失函数,即真实标注与预测标注的损失,表示为:
Figure BDA0002253937660000035
||*||1表示L1正则化,Ex,y,z[*]表示随机变量x,y,z的期望;
(3-2).生成对抗网络模型的最终优化目标为如下损失函数:
Figure BDA0002253937660000036
其中,正则化系数λ>0,生成网络G期望最小化损失函数,判别网络D期望最大化损失函数,交替优化训练后得到生成网络G*,使其尽可能生成与真实分割矩阵一致的视频分割矩阵。
进一步,步骤(4)的具体方法是:
(4-1).对于新视频,其视频帧图像为
Figure BDA0002253937660000037
首帧标注为M1′,将首帧与其标注M1′输入步骤(3)所述生成网络G*的全卷积神经网络得到特征表示张量S1′;
(4-2).预测视频第二帧F2′的目标,先将帧图像F2′和首帧目标像素级标注M1′输入全卷积神经网络,然后依次经过特征表示张量拼接和反卷积上采样操作,得到第二帧对应的生成网络视频分割矩阵P2′;
(4-3).预测后续视频帧的目标,首先将当前帧Fi+1′和第i帧图像的预测标注Pi′输入全卷积神经网络,然后经过特征表示张量拼接和反卷积上采样操作,得到分割矩阵Pi+1′;以第三帧为例,若输入第三帧F3′和第二帧F2′对应的分割矩阵P2′,则得到第三帧的分割矩阵P3′;
(4-4).依次处理视频的第二帧直至最后一帧,得到对应的生成网络视频分割矩阵{Pi′|i=2,...,n},即新视频的目标分割结果。
本发明方法首先将视频输入考虑首帧以及相邻帧分别与当前帧关系的生成网络模型,经过全卷积神经网络及反卷积上采样,获得生成网络视频分割矩阵;其次,利用视频帧及其生成网络视频分割矩阵构建判别网络模型,获得判别矩阵;再次,采取对抗式学习策略交替优化判别网络与生成网络,使得生成网络尽可能生成与真实分割矩阵一致的视频分割矩阵。
本发明方法使用生成对抗网络进行视频目标分割,可学习得到更加符合真实的视频目标数据分布的分割结果,从而提升视频目标分割性能;同时充分考虑了视频内目标的长期关系和短期关系,在设计神经网络时利用了首帧图像及其标注信息以及相邻帧的信息,这使得该方法能够处理视频内目标的复杂变化,包括目标的快速运动、形状的变化等等,提高了视频目标分割的鲁棒性;该方法可广泛应用于增强现实、无人驾驶、视频编辑、智慧城市等领域。
附图说明
图1是本发明方法的流程图。
具体实施方式
以下结合附图对本发明作进一步说明。
一种基于生成对抗网络的视频目标分割方法,重点使用生成对抗网络进行视频目标分割,可学习得到更加符合真实的视频目标数据分布的分割结果,充分考虑视频内目标的长期关系和短期关系的问题,在设计神经网络时利用首帧图像及其标注信息以及相邻帧的信息使其能处理视频内目标的复杂变化。主要思想设计生成网络模型时考虑首帧以及相邻帧分别与当前帧关系,采用全卷积神经网络及反卷积上采样获得生成网络视频分割矩阵,利用视频帧及其生成网络视频分割矩阵构建判别网络模型获得判别矩阵,采取对抗式学习策略交替优化判别网络与生成网络。通过这种方式,可以达到视频目标分割的实际需求。
如图1,该方法首先获取视频数据集,然后进行如下操作:
步骤(1).利用输入视频中首帧以及相邻帧与当前帧的关系,构建视频生成网络模型,经过全卷积神经网络及反卷积上采样,获得生成网络视频分割矩阵。具体方法是:
(1-1).假设输入视频有m帧RGB图像,表示为帧图像集合
Figure BDA0002253937660000051
其中首帧指视频中的第一帧图像F1,每帧图像宽为w,高为h,通道数为3;
(1-2).标注像素级,即帧图像的标注,记为标注集合{Mi|i=1,..,m},其中
Figure BDA0002253937660000052
是宽为w高为h的矩阵,像素级标注Mi的元素取值为{0,1,...,k},k为视频待分割的目标数量,在训练阶段每个视频帧都有对应的像素级标注,但处理新视频时仅给出视频首帧的目标标注;
(1-3).处理视频首帧:将首帧F1与对应标注M1输入到全卷积神经网络得到相应的特征表示张量,全卷积神经网络输出的特征表示张量表示为
Figure BDA0002253937660000053
c1为通道数,w1为张量的宽,h1为张量的高,且w1<w、h1<h,得到的首帧对应的特征表示张量记为S1;该步骤刻画了首帧与当前帧的关系;所述的全卷积神经网络为不包含全连接层且以卷积层为主的神经网络,这里利用残差网络(ResNet-50)并将其全连接层删除。
(1-4).处理视频后续帧:从视频第二帧起至视频最后一帧记为
Figure BDA0002253937660000054
首先将视频帧Fi和前一帧对应的像素级标注Mi-1输入相同全卷积神经网络,得到相应的特征表示张量,记为
Figure BDA0002253937660000055
然后将后续帧Fi对应的特征表示张量Si与首帧对应的特征表示张量S1依次拼接,得到拼接特征表示张量,记为
Figure BDA0002253937660000056
经过多个反卷积层的上采样操作,得到大小与视频帧一致的生成网络视频分割矩阵,记为
Figure BDA0002253937660000057
即产生m-1个目标分割结果;该步骤刻画了相邻帧与当前帧的关系。
步骤(2).利用视频帧及其生成网络视频分割矩阵,构建判别网络模型,获得判别矩阵。具体方法是:
(2-1).将视频帧Fi及其生成网络的视频分割矩阵Pi,i=2,...,m,输入到判别网络,该判别网络是由C个卷积层、归一化层和激活函数组成的模块构成的卷积神经网络,C≥3;
(2-2).判别网络将输出N×N的判别矩阵Ai(矩阵元素为0或1,N<w,N<h),将视频帧Fi与真实视频目标标注Mi输入到判别网络得到相同大小的判别矩阵Ai′,判别矩阵Ai′作为真实的判别矩阵且每个元素对应视频帧的小块区域(如50×50像素区域),判别矩阵Ai每个矩阵元素应与判别矩阵Ai′每个矩阵元素尽可能相同。
步骤(3).采取对抗式学习策略交替优化判别网络与生成网络,使得生成网络尽可能生成与真实分割矩阵一致的视频分割矩阵;所述的对抗式学习策略为生成网络和判别网络的优化目标相互冲突并在对抗过程中优化,所述的交替优化指使用随机梯度下降法先优化判别网络再优化生成网络,依次交替优化损失函数。具体方法是:
(3-1).首先计算生成对抗网络的损失函数,即条件生成对抗网络损失,表示为:
Figure BDA0002253937660000061
其中,x表示输入的视频帧Fi,y表示视频帧Fi对应的像素级标注Mi,z表示随机噪声,G(x,z)表示生成网络产生的预测标注Pi,Ez,y[*]和Ex,z[*]分别表示随机变量z,y的期望和随机变量x,z的期望;然后计算生成网络的损失函数,即真实标注与预测标注的损失,表示为:
Figure BDA0002253937660000062
||*||1表示L1正则化,Ex,y,z[*]表示随机变量x,y,z的期望;
(3-2).生成对抗网络模型的最终优化目标为如下损失函数:
Figure BDA0002253937660000063
其中,正则化系数λ>0,生成网络G期望最小化损失函数,判别网络D期望最大化损失函数,交替优化训练后得到生成网络G*,使其尽可能生成与真实分割矩阵一致的视频分割矩阵。
步骤(4).将新视频输入已训练优化的生成网络模型,获得对应的生成网络视频分割矩阵,即视频目标分割结果。具体方法是:
(4-1).对新视频,其视频帧图像为
Figure BDA0002253937660000064
首帧标注为M1′,首先将首帧与其标注M1′输入步骤(3)所述生成网络G*的全卷积神经网络得到特征表示张量S1′;
(4-2).预测视频第二帧F2′的目标,先将帧图像F2′和首帧目标像素级标注M1′输入全卷积神经网络,然后依次经过特征表示张量拼接和反卷积上采样操作,得到第二帧对应的生成网络视频分割矩阵P2′;
(4-3).预测后续视频帧的目标,先将当前帧Fi+1′和第i帧图像的预测标注Pi′输入全卷积神经网络,然后经过特征表示张量拼接和反卷积上采样操作,得到分割矩阵Pi+1′;以第三帧为例,若输入第三帧F3′和第二帧F2′对应的分割矩阵P2′,则得到第三帧的分割矩阵P3′;
(4-4).依次处理视频的第二帧直至最后一帧,得到对应的生成网络视频分割矩阵{Pi′|i=2,...,n},即新视频的目标分割结果。
本实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (5)

1.一种基于生成对抗网络的视频目标分割方法,其特征在于,该方法首先获取视频数据集,然后进行如下操作:
步骤(1).利用输入视频中首帧以及相邻帧与当前帧的关系,构建视频生成网络模型,经过全卷积神经网络及反卷积上采样,获得生成网络视频分割矩阵;
步骤(2).利用视频帧及其生成网络视频分割矩阵,构建判别网络模型,获得判别矩阵;
步骤(3).采取对抗式学习策略交替优化判别网络与生成网络,使得生成网络尽可能生成与真实分割矩阵一致的视频分割矩阵;
所述的对抗式学习策略为生成网络和判别网络的优化目标相互冲突并在对抗过程中优化,所述的交替优化指使用随机梯度下降法先优化判别网络再优化生成网络,依次交替优化损失函数;
步骤(4).将新视频输入已训练优化的生成网络模型,获得对应的生成网络视频分割矩阵,即视频目标分割结果。
2.如权利要求1所述的一种基于生成对抗网络的视频目标分割方法,其特征在于步骤(1)的具体方法是:
(1-1).假设输入视频有m帧RGB图像,表示为帧图像集合
Figure FDA0002253937650000011
其中首帧指视频中的第一帧图像F1,每帧图像宽为w,高为h,通道数为3;
(1-2).标注像素级,记为标注集合{Mi|i=1,..,m},其中
Figure FDA0002253937650000012
是宽为w高为h的矩阵,像素级标注Mi的元素取值为{0,1,...,k},k为视频待分割的目标数量,在训练阶段每个视频帧都有对应的像素级标注,处理新视频时仅给出视频首帧的目标标注;
(1-3).处理视频首帧:将首帧F1与对应标注M1输入到全卷积神经网络得到相应的特征表示张量,全卷积神经网络输出的特征表示张量表示为
Figure FDA0002253937650000013
c1为通道数,w1为张量的宽,h1为张量的高,且w1<w、h1<h,得到的首帧对应的特征表示张量记为S1;所述的全卷积神经网络为不包含全连接层且以卷积层为主的神经网络;
(1-4).处理视频后续帧:从视频第二帧起至视频最后一帧记为
Figure FDA0002253937650000014
首先将视频帧Fi和前一帧对应的像素级标注Mi-1输入相同全卷积神经网络,得到相应的特征表示张量,记为
Figure FDA0002253937650000021
然后将后续帧Fi对应的特征表示张量Si与首帧对应的特征表示张量S1依次拼接,得到拼接特征表示张量,记为
Figure FDA0002253937650000022
经过多个反卷积层的上采样操作,得到大小与视频帧一致的生成网络视频分割矩阵,记为
Figure FDA0002253937650000023
即产生m-1个目标分割结果。
3.如权利要求1所述的一种基于生成对抗网络的视频目标分割方法,其特征在于步骤(2)的具体方法是:
(2-1).将视频帧Fi及其生成网络的视频分割矩阵Pi,i=2,...,m,输入到判别网络,该判别网络是由C个卷积层、归一化层和激活函数组成的模块构成的卷积神经网络,C≥3;
(2-2).判别网络将输出N×N的判别矩阵Ai,矩阵元素为0或1,N<w,N<h,将视频帧Fi与真实视频目标标注Mi输入到判别网络得到相同大小的判别矩阵Ai′,判别矩阵Ai′作为真实的判别矩阵且每个元素对应视频帧的小块区域,判别矩阵Ai每个矩阵元素应与判别矩阵Ai′每个矩阵元素尽可能相同。
4.如权利要求1所述的一种基于生成对抗网络的视频目标分割方法,其特征在于步骤(3)的具体方法是:
(3-1).首先计算生成对抗网络的损失函数,即条件生成对抗网络损失,表示为:
Figure FDA0002253937650000024
其中,x表示输入的视频帧Fi,y表示视频帧Fi对应的像素级标注Mi,z表示随机噪声,G(x,z)表示生成网络产生的预测标注Pi,Ez,y[*]和Ex,z[*]分别表示随机变量z,y的期望和随机变量x,z的期望;然后计算生成网络的损失函数,即真实标注与预测标注的损失,表示为:
Figure FDA0002253937650000025
||*||1表示L1正则化,Ex,y,z[*]表示随机变量x,y,z的期望;
(3-2).生成对抗网络模型的最终优化目标为如下损失函数:
Figure FDA0002253937650000026
其中,正则化系数λ>0,生成网络G期望最小化损失函数,判别网络D期望最大化损失函数,交替优化训练后得到生成网络G*,使其尽可能生成与真实分割矩阵一致的视频分割矩阵。
5.如权利要求1所述的一种基于生成对抗网络的视频目标分割方法,其特征在于步骤(4)的具体方法是:
(4-1).对于新视频,其视频帧图像为
Figure FDA0002253937650000031
首帧标注为M1′,将首帧与其标注M1′输入步骤(3)所述生成网络G*的全卷积神经网络得到特征表示张量S1′;
(4-2).预测视频第二帧F2′的目标,先将帧图像F2′和首帧目标像素级标注M1′输入全卷积神经网络,然后依次经过特征表示张量拼接和反卷积上采样操作,得到第二帧对应的生成网络视频分割矩阵P2′;
(4-3).预测后续视频帧的目标,首先将当前帧Fi+1′和第i帧图像的预测标注Pi′输入全卷积神经网络,然后经过特征表示张量拼接和反卷积上采样操作,得到分割矩阵Pi+1′;以第三帧为例,若输入第三帧F3′和第二帧F2′对应的分割矩阵P2′,则得到第三帧的分割矩阵P3′;
(4-4).依次处理视频的第二帧直至最后一帧,得到对应的生成网络视频分割矩阵{Pi′|i=2,...,n},即新视频的目标分割结果。
CN201911045144.8A 2019-10-30 2019-10-30 一种基于生成对抗网络的视频目标分割方法 Active CN110942463B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911045144.8A CN110942463B (zh) 2019-10-30 2019-10-30 一种基于生成对抗网络的视频目标分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911045144.8A CN110942463B (zh) 2019-10-30 2019-10-30 一种基于生成对抗网络的视频目标分割方法

Publications (2)

Publication Number Publication Date
CN110942463A true CN110942463A (zh) 2020-03-31
CN110942463B CN110942463B (zh) 2021-03-16

Family

ID=69906904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911045144.8A Active CN110942463B (zh) 2019-10-30 2019-10-30 一种基于生成对抗网络的视频目标分割方法

Country Status (1)

Country Link
CN (1) CN110942463B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968123A (zh) * 2020-08-28 2020-11-20 北京交通大学 一种半监督视频目标分割方法
CN114638839A (zh) * 2022-05-18 2022-06-17 中国科学技术大学 基于动态原型学习的小样本视频目标分割方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230355A (zh) * 2017-06-14 2018-06-29 北京市商汤科技开发有限公司 目标跟踪及神经网络训练方法、装置、存储介质和电子设备
US20180293734A1 (en) * 2017-04-06 2018-10-11 General Electric Company Visual anomaly detection system
CN109492524A (zh) * 2018-09-20 2019-03-19 中国矿业大学 用于视觉跟踪的内结构关联性网络
CN110059744A (zh) * 2019-04-16 2019-07-26 腾讯科技(深圳)有限公司 训练神经网络的方法、图像处理的方法、设备及存储介质
CN110188754A (zh) * 2019-05-29 2019-08-30 腾讯科技(深圳)有限公司 图像分割方法和装置、模型训练方法和装置
CN110290386A (zh) * 2019-06-04 2019-09-27 中国科学技术大学 一种基于生成对抗网络的低码率人体运动视频编码系统及方法
US20190324744A1 (en) * 2019-06-28 2019-10-24 Intel Corporation Methods, systems, articles of manufacture, and apparatus for a context and complexity-aware recommendation system for improved software development efficiency
CN110378095A (zh) * 2019-07-17 2019-10-25 网易(杭州)网络有限公司 基于验证码的交互验证方法、装置、介质和计算设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293734A1 (en) * 2017-04-06 2018-10-11 General Electric Company Visual anomaly detection system
CN108230355A (zh) * 2017-06-14 2018-06-29 北京市商汤科技开发有限公司 目标跟踪及神经网络训练方法、装置、存储介质和电子设备
CN109492524A (zh) * 2018-09-20 2019-03-19 中国矿业大学 用于视觉跟踪的内结构关联性网络
CN110059744A (zh) * 2019-04-16 2019-07-26 腾讯科技(深圳)有限公司 训练神经网络的方法、图像处理的方法、设备及存储介质
CN110188754A (zh) * 2019-05-29 2019-08-30 腾讯科技(深圳)有限公司 图像分割方法和装置、模型训练方法和装置
CN110290386A (zh) * 2019-06-04 2019-09-27 中国科学技术大学 一种基于生成对抗网络的低码率人体运动视频编码系统及方法
US20190324744A1 (en) * 2019-06-28 2019-10-24 Intel Corporation Methods, systems, articles of manufacture, and apparatus for a context and complexity-aware recommendation system for improved software development efficiency
CN110378095A (zh) * 2019-07-17 2019-10-25 网易(杭州)网络有限公司 基于验证码的交互验证方法、装置、介质和计算设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HUAXIN XIA 等: "MoNet: Deep Motion Exploitation for Video Object Segmentation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
LI YUAN 等: "Cycle-SUM: Cycle-consistent Adversarial LSTM Networks for Unsupervised Video Summarization", 《HTTPS://ARXIV.ORG/ABS/1904.08265?CONTEXT=CS.CV》 *
PRASHANT PATIL 等: "FgGAN: A Cascaded Unpaired Learning for Background Estimation and Foreground Segmentation", 《2019 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV)》 *
XINGXING WEI 等: "Video-to-Video Translation with Global Temporal Consistency", 《MM "18: PROCEEDINGS OF THE 26TH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA》 *
刘春晖 等: "基于深度学习的图像显著对象检测", 《光电子·激光》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968123A (zh) * 2020-08-28 2020-11-20 北京交通大学 一种半监督视频目标分割方法
CN111968123B (zh) * 2020-08-28 2024-02-02 北京交通大学 一种半监督视频目标分割方法
CN114638839A (zh) * 2022-05-18 2022-06-17 中国科学技术大学 基于动态原型学习的小样本视频目标分割方法
CN114638839B (zh) * 2022-05-18 2022-09-30 中国科学技术大学 基于动态原型学习的小样本视频目标分割方法

Also Published As

Publication number Publication date
CN110942463B (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
Dvornik et al. On the importance of visual context for data augmentation in scene understanding
Von Stumberg et al. Gn-net: The gauss-newton loss for multi-weather relocalization
CN111079532B (zh) 一种基于文本自编码器的视频内容描述方法
JP7147078B2 (ja) ビデオフレームの情報ラベリング方法、装置、機器及びコンピュータプログラム
CN110516536B (zh) 一种基于时序类别激活图互补的弱监督视频行为检测方法
EP3832534B1 (en) Video action segmentation by mixed temporal domain adaptation
CN112651406B (zh) 一种深度感知和多模态自动融合的rgb-d显著性目标检测方法
Li et al. Primary video object segmentation via complementary cnns and neighborhood reversible flow
CN110942463B (zh) 一种基于生成对抗网络的视频目标分割方法
CN114419323A (zh) 基于跨模态学习与领域自适应rgbd图像语义分割方法
CN112990222A (zh) 一种基于图像边界知识迁移的引导语义分割方法
CN116402851A (zh) 一种复杂背景下的红外弱小目标跟踪方法
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN111739037A (zh) 一种针对室内场景rgb-d图像的语义分割方法
CN110633706A (zh) 一种基于金字塔网络的语义分割方法
CN117011515A (zh) 基于注意力机制的交互式图像分割模型及其分割方法
Xiong et al. Distortion map-guided feature rectification for efficient video semantic segmentation
WO2023036157A1 (en) Self-supervised spatiotemporal representation learning by exploring video continuity
CN116363374A (zh) 图像语义分割网络持续学习方法、系统、设备及存储介质
CN116630850A (zh) 基于多注意力任务融合与边界框编码的孪生目标跟踪方法
CN115578574A (zh) 一种基于深度学习和拓扑感知的三维点云补全方法
CN112487927B (zh) 一种基于物体关联注意力的室内场景识别实现方法及系统
CN113920170A (zh) 结合场景上下文和行人社会关系的行人轨迹预测方法、系统及存储介质
CN113920127A (zh) 一种训练数据集独立的单样本图像分割方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231108

Address after: No. 508-2A, Baoli Tianji North Block, Qiandenghu, Guicheng Street, Nanhai District, Foshan City, Guangdong Province, 528200

Patentee after: Foshan Haixie Technology Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231116

Address after: 100045 Beijing city Xicheng District Fuxingmenwai No. 1 Nan Xiang Di Zang an

Patentee after: STATE GRID JIBEI ELECTRIC POWER Co.,Ltd.

Address before: No. 508-2A, Baoli Tianji North Block, Qiandenghu, Guicheng Street, Nanhai District, Foshan City, Guangdong Province, 528200

Patentee before: Foshan Haixie Technology Co.,Ltd.