CN113111684B - 神经网络模型的训练方法、装置和图像处理系统 - Google Patents

神经网络模型的训练方法、装置和图像处理系统 Download PDF

Info

Publication number
CN113111684B
CN113111684B CN202010025616.XA CN202010025616A CN113111684B CN 113111684 B CN113111684 B CN 113111684B CN 202010025616 A CN202010025616 A CN 202010025616A CN 113111684 B CN113111684 B CN 113111684B
Authority
CN
China
Prior art keywords
video frame
current video
target object
neural network
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010025616.XA
Other languages
English (en)
Other versions
CN113111684A (zh
Inventor
杨林杰
刘鼎
方晨
李鲲鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ByteDance Inc
Original Assignee
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ByteDance Inc filed Critical ByteDance Inc
Priority to CN202010025616.XA priority Critical patent/CN113111684B/zh
Publication of CN113111684A publication Critical patent/CN113111684A/zh
Application granted granted Critical
Publication of CN113111684B publication Critical patent/CN113111684B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了用于图像处理的神经网络模型的训练方法、装置和图像处理系统。该训练方法包括:获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签和分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络。通过上述训练方法训练神经网络,使得对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。

Description

神经网络模型的训练方法、装置和图像处理系统
技术领域
本公开涉及人工智能领域,更具体地,本公开涉及一种用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的图像处理方法、图像处理系统以及计算机可读存储介质。
背景技术
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。神经网络已被人工智能界广泛应用。神经网络是一种大规模、多参数优化的工具。依靠大量的训练数据,神经网络能够学习出数据中难以总结的隐藏特征,从而完成诸如计算机视觉的多种复杂任务。
可以将基于神经网络模型的计算机视觉技术用于诸如视频对象分割(Videoobject segmentation,VOS)的图像处理中,从而对于视频图像自动进行处理。VOS旨在于给定视频的所有帧中以像素级别将前景对象与背景分离。对于许多应用程序,例如视频编辑、增强现实、视频监视等,这是基本的计算机视觉任务和必不可少的步骤。当前最新的半监督VOS方法通常依赖于从大型视频数据集中学习,并在目标对象上进行像素级标签,以便在训练过程中不断调整整个神经网络模型的参数设置,直到获得满足训练结束条件的神经网络模型以便随后执行相应的处理任务。然而,在视频帧上收集大量准确的像素级标签是比较消耗劳动力的,并且成本较高。
发明内容
鉴于上述问题而提出了本公开。本公开提供了用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的图像处理方法、图像处理系统、电子设备以及计算机可读存储介质。
根据本公开的一个方面,提供了一种用于图像处理的神经网络模型的训练方法,所述训练方法包括:获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签;基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络。
根据本公开的一个方面,提供了一种利用神经网络模型的图像处理方法,包括:接收待处理的图像;利用所述神经网络模型对所述待处理的图像执行特征提取处理;以及基于提取的特征,输出处理结果,其中,所利用如权利要求1-5中任一项所述的神经网络模型的训练方法,获得所述神经网络模型。
根据本公开的一个方面,提供了一种用于图像处理的神经网络模型的训练装置,包括:当前视频帧和目标模板获取单元,用于获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;像素级伪标签获取单元,用于基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签;分割掩码获取单元,用于基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;训练单元,用于基于所述像素级伪标签和所述分割掩码,获取损失函数,并基于损失函数训练所述神经网络。
根据本公开的一个方面,提供了一种电子设备,包括:处理器;以及存储器,用于存储计算机程序指令;其中,当所述计算机程序指令由所述处理器加载并运行时,所述处理器执行上述神经网络模型的训练方法以及图像处理方法。
根据本公开的一个方面,提供了一种图像处理系统,包括:图像获取单元,用于获取待处理的图像;图像处理单元,用于处理所述图像,生成图像处理结果;以及结果输出单元,用于输出所述图像处理结果,其中,所述图像处理单元执行上述神经网络模型的训练方法以及图像处理方法。
根据本公开的一个方面,提供了一种计算机可读存储介质,其上存储计算机可读指令,当所述计算机可读指令由计算机执行时,所述计算机执行用于图像处理的神经网络模型的训练方法,所述训练方法包括:获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签;基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络。
如以下将详细描述的,根据本公开的用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的图像处理方法、图像处理系统、电子设备以及计算机可读存储介质,利用仅带有边界框标签的训练集来训练视频对象分割模型,并利用注意力机制来估计训练数据中的伪像素标签,以便VOS模型可以从中学习并端到端执行视频对象分割,从而对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并且意图在于提供要求保护的技术的进一步说明。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是概述根据本公开实施例的神经网络模型的训练方法的应用场景的示意图;
图2是图示根据本公开实施例的神经网络模型的训练方法的流程图;
图3是图示根据本公开实施例的神经网络模型的训练方法的示意图;
图4是图示根据本公开实施例的神经网络模型的训练装置的功能框图;
图5是图示根据本公开实施例的电子设备的硬件框图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本申请实施例提供的方案涉及人工智能领域中基于神经网络的计算机视觉技术,具体通过如下实施例进行说明。
视频对象分割(VOA)有几种现有设置:无监督的VOS、交互式VOS、弱监督的VOS和半监督的VOS。无监督的VOS不需要先了解目标对象,而需要瞄准测试视频中的显着对象。交互式VOS是监督分割的一种特殊设置,它依赖于反复的用户交互(如涂鸦或点击)。弱监督的VOS方法依靠大量已知包含相同类的对象的视频来分割对象。对于半监督的VOS,在第一视频帧中的目标对象上提供了准确的掩码。最新的VOA方法主要是使用空时存储器或全局和局部匹配机制将掩码信息从先前帧传输到当前帧。他们在训练和测试阶段都严重依赖高质量的像素级标签,这对于图像处理来说是耗时耗力的。
本公开提出了一种用于图像处理的神经网络模型的训练方法,其利用仅带有边界框标签的训练集来训练视频对象分割模型,使得对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。
参照图1示意性地描述根据本公开实施例的神经网络模型的训练方法的应用场景。
如图1所示,根据本公开实施例的神经网络模型20用于接收输入10,并且所述输入10执行特征提取处理,基于提取的特征,生成输出30。在本公开的实施例中,所述输入10例如可以是图像、视频、自然语言文本等待处理的对象。所示神经网络模型20对所述输入10执行图像语义分割、物体检测、动作追踪、自然语言翻译等处理,以生成所述输出30。该神经网络模型20可以嵌入在终端设备或者服务器中以对输入进行处理。
在本公开的一个实施例中,所述神经网络模型20可以根据图2所示的训练方法进行训练。
如图2所示为根据本公开实施例的神经网络模型的训练方法的流程图。如图2所示,该训练方法包括以下步骤S101-S104。
在步骤S101,获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象。在步骤S102,基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签。在步骤S103,基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象。在步骤S104,基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络。
在本公开中,仅在目标对象上使用边界框标签而不是像素级标签来训练神经网络。即,本公开通过仅在当前视频的第一帧处提供带有边界框的目标对象来训练神经网络,然后利用训练好的神经网络,可以在随后的每个视频帧中为该目标对象输出像素级的标签,从而降低标注成本并加快开发周期。
该目标模板是预先确定的、以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象,该目标对象在第一个视频帧中作为模板被跟踪,神经网络将学习验证当前视频帧的搜索区域中的哪个图像块与目标模板最相似。
下面将参照图3详细介绍步骤S102和步骤S103中所述的基于当前视频帧和所述目标模板获取目标对象的像素级伪标签和分割掩码的过程。图3是图示根据本公开实施例的神经网络模型的训练方法的示意图。
首先,将详细介绍步骤S102中基于当前视频帧和所述目标模板获取所述目标对象的像素级伪标签的过程。
例如,可以使用Siamese跟踪器和Siamese注意力机制来获取目标对象的像素级伪标签。Siamese跟踪器将跟踪问题视为验证问题,并利用全卷积Siamese网络解决该验证问题。应当认识到,Siamese跟踪器和Siamese注意力仅仅是一个示例而不能作为限制,还可以采用其他跟踪方法和注意力机制来获取目标对象的像素级伪标签,这里不做限制。
在本公开中,神经网络可以包括第一子网络和第二子网络,所述第一子网络和第二子网络共享权重系数。那么可以基于第一子网络和所述目标模板,获取第一特征,该第一特征是目标模板的特征;基于第二子网络和所述当前视频帧,获取第二特征,该第二特征是当前视频帧的特征,然后基于所述第一特征和所述第二特征获取相关图。
例如,如图3所示,给定目标模板31,该目标模板31作为Siamese跟踪器的跟踪目标z被跟踪,神经网络将学习验证当前视频帧32的搜索区域x中的哪个图像块与目标模板31最相似。特别地,两个输入z(目标模板)和x(当前视频帧)用包含两个共享权重系数的神经网络(第一子网络33和第二子网络34)(诸如CNN、PNN)流的Siamese网络处理以分别获得两个子网络对应的两个特征图表示。对这两个特征图表示执行互相关以获得相关图35:
其中表示CNN或PNN等神经网络,这里不做限制。/>代表第一子网络的最后一个卷积层中的特征,/>代表第二子网络的最后一个卷积层中的特征,f(z,x)的值代表图像的某个位置是前景对象(即,目标对象)的概率。在训练过程中,可以通过使相关图的最大值对应于搜索区域中的目标对象来优化第一神经网络和第二神经网络。
然后,在本公开中,基于第一特征和所述第二特征的相关图获得前景分类结果,然后基于前景分类结果和所述第二特征获得第一子网络和第二子网络的权重系数。
例如,如图3所示,在生成代表图像的某个位置是前景物体的概率的特征图f(z,x)之后,基于f(z,x)的值可以对当前图像进行分类以得到前景分类结果36,然后基于前景分类结果36和第二特征,利用如下反向梯度传播方法获得第一子网络33和第二子网络34的权重系数37:
其中,y表示前景分类结果,Fc(i,j)表示第二特征的第c个通道的第i行第j列的值,H是卷积特征图Fc的大小。通过计算y相对于Fc(i,j)的梯度可以得到第一子网络33和第二子网络34的权重系数wc。应当认识到,也可以采用除了反向梯度传播方法之外的其他方法来获得权重系数,这里仅仅是一个示例而不作为限制。
接下来,基于所述第一子网络和第二子网络的权重系数和所述第二特征获取所述注意力图。例如,可以利用Siamese注意力机制获得Siamese注意力图。
例如,如图3所示,对在Fc的不同位置呈现视觉模式用wc进行加权求和,然后进行线性整流(Rectified Linear Unit,ReLU)操作来得到注意力图。这等效于将权重系数wc作为内核(kernel),并对特征图Fc进行2D卷积运算,注意力图的表示如下:
M=σ(∑cwcFc)=σ(Conv(F,w)) 表达式(3)
其中σ(·)表示ReLU运算,Conv(·)表示卷积运算。
由此得到了注意力图(例如Siamese注意力图)。例如,这些注意力图可以在每个视频帧的搜索区域中大致定位目标对象,这是进一步生成这些对象的更详细的掩码(例如,像素级掩码)的关键提示。
尽管这些注意力图在不使用像素级标签的情况下提供了像素级定位信息,但它们通常不够精确,无法用作VOS任务的训练数据。因为在该任务中,要尽可能精确地标识目标对象的区域。例如,可以通过考虑封装在图像中的边缘和区域信息,进一步采用GrabCut来细化注意力图。具体来说,通过将对象边界框内关注值大于0的位置设置为可能的前景,其余部分设置为可能的背景,来初始化细化地图。然后,通过像素相似度获得像素之间的权重。然后采用最小割算法对图形进行分割,得到分割结果。通过这种方式,可以构建具有细化的图的大规模训练数据集,作为像素级伪标签(在下文中用A来表示)。
应当认识到,还可以通过其他方法来细化注意力图以获得目标对象的像素级伪标签,这里的描述仅仅是一个示例而不是限制。
上述通过结合图3描述了获得像素级伪标签的过程。下面将参照图3详细介绍步骤S103中所述的基于当前视频帧和所述目标模板获取目标对象的分割掩码的过程。
例如,为了执行视频对象分割,可以将新分割分支添加到Siamese框架中,并使用目标数据集上生成的像素级伪标签对其进行训练。具体来说,基于分割分支将相关图f(z,x)和来自第二子网络不同层的输出的集合来获得分割掩码S:
S=φ(f(z,x),α)表达式(4)
其中α=(α1,…,αN)是来自Siamese框架的第二子网络不同层的输出的集合。f(z,x)是表达式1中描述的相关图。
在获得了步骤S102和步骤S103中所述的基于当前视频帧和所述目标模板获取目标对象的像素级伪标签和分割掩码的过程之后,下面将介绍步骤S104中的基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络的过程。
为了训练这个新的分割分支,可以通过预测分割掩码S和像素级伪标签A之间的像素级交叉熵损失Lc来构建损失函数:
L=Lc(S,A)表达式(5)
然后,利用所述损失函数训练所述神经网络。
进一步,由于前景像素和背景像素在搜索区域中非常不平衡,因此,除了上述像素级交叉熵损失Lc之外,还可以通过仅针对真实边界框区域内的像素计算交叉熵损失,来构建感兴趣区域(ROI)损失Lr。此外,可以进一步添加了有助于从嘈杂的像素级标签中学习的交叠率(IoU)损失Li,进而利用权重λ按照如下所示的方法构建损失函数:
L=Lc+λLr+λLi 表达式(6)
在获得损失函数之后,利用损失函数训练所述神经网络。
通过考虑多重因素,使得利用表达式(6)的损失函数训练的神经网络比用表达式(5)的损失函数训练的神经网络的性能更好。
本公开利用仅带有边界框标签的训练集来训练视频对象分割模型,并利用注意力机制来估计训练数据中的伪像素标签,以便VOS模型可以从中学习并端到端执行视频对象分割,从而对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。
以上,参照附图描述了根据本发明实施例的用于图像处理的神经网络模型的训练方法。以下,将描述根据本公开实施例的神经网络模型的训练装置。
图4是图示根据本公开实施例的神经网络模型的训练装置的功能框图。如图4所示,根据本公开实施例的训练装置40包括当前视频帧和目标模板获取单元401、像素级伪标签获取单元402、分割掩码获取单元403和训练单元404。上述各模块可以分别执行如上参照图2到图3描述的根据本公开的实施例的神经网络模型的训练方法的各个步骤。本领域的技术人员理解:这些单元模块可以单独由硬件、单独由软件或者由其组合以各种方式实现,并且本公开不限于它们的任何一个。
当前视频帧和目标模板获取单元401用于获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象。
像素级伪标签获取单元402用于基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签。
例如,像素级伪标签获取单元402用于基于所述当前视频帧和所述目标模板,获取所述目标对象的注意力图;以及细化所述注意力图以获得所述目标对象的像素级伪标签,其中,所述注意力图用于定位所述目标对象。
例如,神经网络包括第一子网络和第二子网络,所述第一子网络和第二子网络共享权重系数,所述像素级伪标签获取单元402基于所述当前视频帧和所述目标模板,获取所述目标对象的注意力图包括:基于第二子网络和所述当前视频帧,获取第二特征;基于所述第一子网络和第二子网络的权重系数和所述第二特征获取所述注意力图。
例如,权重系数基于前景分类结果和所述第二特征获得,所述前景分类结果是基于第一特征和所述第二特征的相关图获得的,所述第一特征是基于第一子网络和所述目标模板获得的。
分割掩码获取单元403用于基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象。
例如,分割掩码是基于第一特征和所述第二特征的相关图和所述第二子网络不同层的输出的集合获取的。
训练单元404用于基于所述像素级伪标签和所述分割掩码,获取损失函数,并基于损失函数训练所述神经网络。
图5是图示根据本公开实施例的电子设备700的硬件框图。根据本公开实施例的电子设备至少包括处理器;以及存储器,用于存储计算机程序指令。当计算机程序指令由处理器加载并运行时,所述处理器执行如上所述的神经网络模型的训练方法和图像处理方法。
下面参考图5,其示出了适于用来实现本公开实施例的电子设备(例如图1中的终端设备或服务器)600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
此外,本公开还公开了一种计算机可读存储介质,其上存储计算机可读指令,当所述计算机可读指令由计算机执行时,所述计算机执行用于图像处理的神经网络模型的训练方法,所述训练方法包括:获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;基于所述当前视频帧和所述目标模板,获取所述目标对象的像素级伪标签;基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络。
需要说明的是,本公开上述的计算机可读存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读存储介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
鉴于上述问题而提出了本公开。本公开提供了用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的图像处理方法、图像处理系统、电子设备以及计算机可读存储介质。
现在以基于解决方案的格式公开优选地由一些实施例实现的一些特征。
A1.一种用于图像处理的神经网络模型的训练方法,训练方法包括:获取当前视频帧和目标模板,目标模板以边界框的方式定位与当前视频帧中的目标对象相同或相似的对象;基于当前视频帧和目标模板,获取目标对象的像素级伪标签;基于当前视频帧和目标模板,获取目标对象的分割掩码,像素级伪标签和分割掩码用于标注当前视频帧中的目标对象;基于像素级伪标签和分割掩码,获取损失函数,并利用损失函数训练神经网络。
A2.根据解决方案A1的训练方法,其中,基于当前视频帧和目标模板,获取目标对象的像素级伪标签包括:基于当前视频帧和目标模板,获取目标对象的注意力图;以及细化注意力图以获得目标对象的像素级伪标签,其中,注意力图用于定位目标对象。
A3.根据解决方案A2的训练方法,其中,神经网络包括第一子网络和第二子网络,第一子网络和第二子网络共享权重系数,其中,基于当前视频帧和目标模板,获取目标对象的注意力图包括:基于第二子网络和当前视频帧,获取第二特征;基于第一子网络和第二子网络的权重系数和第二特征获取注意力图。
A4.根据解决方案A3的训练方法,其中,权重系数基于前景分类结果和第二特征获得,前景分类结果是基于第一特征和第二特征的相关图获得的,第一特征是基于第一子网络和目标模板获得的。
A5.根据解决方案A4的训练方法,其中,分割掩码是基于第一特征和第二特征的相关图和第二子网络不同层的输出的集合获取的。
现在以基于解决方案的格式公开优选地由一些实施例实现的一些特征。
B1.一种利用神经网络模型的图像处理方法,包括:接收待处理的图像;利用神经网络模型对待处理的图像执行特征提取处理;以及基于提取的特征,输出处理结果,其中,所利用如上述解决方案A1-A5的任一项的神经网络模型的训练方法,获得神经网络模型。
现在以基于解决方案的格式公开优选地由一些实施例实现的一些特征。
C1.一种用于图像处理的神经网络模型的训练装置,包括:当前视频帧和目标模板获取单元,用于获取当前视频帧和目标模板,目标模板以边界框的方式定位与当前视频帧中的目标对象相同或相似的对象;像素级伪标签获取单元,用于基于当前视频帧和目标模板,获取目标对象的像素级伪标签;分割掩码获取单元,用于基于当前视频帧和目标模板,获取目标对象的分割掩码,像素级伪标签和分割掩码用于标注当前视频帧中的目标对象;训练单元,用于基于像素级伪标签和分割掩码,获取损失函数,并基于损失函数训练神经网络。
C2.根据解决方案C1的训练装置,其中,像素级伪标签获取单元基于当前视频帧和目标模板,获取目标对象的注意力图;以及细化注意力图以获得目标对象的像素级伪标签,其中,注意力图用于定位目标对象。
C3.根据解决方案C2的训练装置,其中,神经网络包括第一子网络和第二子网络,第一子网络和第二子网络共享权重系数,像素级伪标签获取单元基于当前视频帧和目标模板,获取目标对象的注意力图包括:基于第二子网络和当前视频帧,获取第二特征;基于第一子网络和第二子网络的权重系数和第二特征获取注意力图。
C4.根据解决方案C3的训练装置,其中,权重系数基于前景分类结果和第二特征获得,前景分类结果是基于第一特征和第二特征的相关图获得的,第一特征是基于第一子网络和目标模板获得的。
C5.根据解决方案C4的训练装置,其中,分割掩码是基于第一特征和第二特征的相关图和第二子网络不同层的输出的集合获取的。
现在以基于解决方案的格式公开优选地由一些实施例实现的一些特征。
D1.一种电子设备,包括:处理器;以及存储器,用于存储计算机程序指令;其中,当计算机程序指令由处理器加载并运行时,处理器执行如解决方案A1到A5的任一项的神经网络模型的训练方法以及如解决方案6的图像处理方法。
E1.一种图像处理系统,包括:图像获取单元,用于获取待处理的图像;图像处理单元,用于处理图像,生成图像处理结果;以及结果输出单元,用于输出图像处理结果,其中,图像处理单元执行如解决方案A1到A5的任一项的神经网络模型的训练方法以及如解决方案B1的图像处理方法。
F1.一种计算机可读存储介质,其上存储计算机可读指令,当计算机可读指令由计算机执行时,计算机执行用于图像处理的神经网络模型的训练方法,训练方法包括:获取当前视频帧和目标模板,目标模板以边界框的方式定位与当前视频帧中的目标对象相同或相似的对象;基于当前视频帧和目标模板,获取目标对象的像素级伪标签;基于当前视频帧和目标模板,获取目标对象的分割掩码,像素级伪标签和分割掩码用于标注当前视频帧中的目标对象;基于像素级伪标签和分割掩码,获取损失函数,并利用损失函数训练神经网络。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (12)

1.一种用于图像处理的神经网络模型的训练方法,所述训练方法包括:
获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;
基于所述当前视频帧和所述目标模板,使用所述目标对象的注意力图,获取所述目标对象的像素级伪标签;
基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;
基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络;
其中,所述神经网络包括第一子网络和第二子网络,所述第一子网络和所述第二子网络共享权重系数,
基于所述第一子网络和所述目标模板,获取第一特征;
基于所述第二子网络和所述当前视频帧,获取第二特征;
所述分割掩码是基于所述第一特征和所述第二特征的相关图和所述第二子网络不同层的输出的集合获取的。
2.根据权利要求1所述的训练方法,其中,所述基于所述当前视频帧和所述目标模板,使用所述目标对象的注意力图,获取所述目标对象的像素级伪标签包括:
基于所述当前视频帧和所述目标模板,获取所述目标对象的注意力图;以及
细化所述注意力图以比所述注意力图更精确地表示所述目标对象的区域,来获得所述目标对象的像素级伪标签,
其中,所述注意力图用于定位所述目标对象。
3.根据权利要求2所述的训练方法,其中,所述基于所述当前视频帧和所述目标模板,获取所述目标对象的注意力图包括:
基于所述第一子网络和第二子网络的权重系数和所述第二特征获取所述注意力图。
4.根据权利要求3所述的训练方法,其中,所述权重系数基于前景分类结果和所述第二特征获得,所述前景分类结果是基于第一特征和所述第二特征的相关图获得的。
5.一种利用神经网络模型的图像处理方法,包括:
接收待处理的图像;
利用所述神经网络模型对所述待处理的图像执行特征提取处理;以及
基于提取的特征,输出处理结果,
其中,所利用如权利要求1-4中任一项所述的神经网络模型的训练方法,获得所述神经网络模型。
6.一种用于图像处理的神经网络模型的训练装置,包括:
当前视频帧和目标模板获取单元,用于获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;
像素级伪标签获取单元,用于基于所述当前视频帧和所述目标模板,使用所述目标对象的注意力图,获取所述目标对象的像素级伪标签;
分割掩码获取单元,用于基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;
训练单元,用于基于所述像素级伪标签和所述分割掩码,获取损失函数,并基于损失函数训练所述神经网络;
其中,所述神经网络包括第一子网络和第二子网络,所述第一子网络和所述第二子网络共享权重系数,
所述分割掩码获取单元,还用于基于所述第一子网络和所述目标模板,获取第一特征;
并基于所述第二子网络和所述当前视频帧,获取第二特征;
所述分割掩码是基于所述第一特征和所述第二特征的相关图和所述第二子网络不同层的输出的集合获取的。
7.根据权利要求6所述的训练装置,其中,
所述像素级伪标签获取单元基于所述当前视频帧和所述目标模板,使用所述目标对象的注意力图,获取所述目标对象的注意力图;以及
细化所述注意力图以比所述注意力图更精确地表示所述目标对象的区域,来获得所述目标对象的像素级伪标签,
其中,所述注意力图用于定位所述目标对象。
8.根据权利要求7所述的训练装置,其中,所述像素级伪标签获取单元基于所述当前视频帧和所述目标模板,获取所述目标对象的注意力图包括:
基于所述第一子网络和第二子网络的权重系数和所述第二特征获取所述注意力图。
9.根据权利要求8所述的训练装置,其中,所述权重系数基于前景分类结果和所述第二特征获得,所述前景分类结果是基于第一特征和所述第二特征的相关图获得的。
10.一种电子设备,包括:
处理器;以及
存储器,用于存储计算机程序指令;
其中,当所述计算机程序指令由所述处理器加载并运行时,所述处理器执行如权利要求1到4的任一项所述的神经网络模型的训练方法以及如权利要求5所述的图像处理方法。
11.一种图像处理系统,包括:
图像获取单元,用于获取待处理的图像;
图像处理单元,用于处理所述图像,生成图像处理结果;以及
结果输出单元,用于输出所述图像处理结果,
其中,所述图像处理单元执行如权利要求1到4的任一项所述的神经网络模型的训练方法以及如权利要求5所述的图像处理方法。
12.一种计算机可读存储介质,其上存储计算机可读指令,当所述计算机可读指令由计算机执行时,所述计算机执行用于图像处理的神经网络模型的训练方法,所述训练方法包括:
获取当前视频帧和目标模板,所述目标模板以边界框的方式定位与所述当前视频帧中的目标对象相同或相似的对象;
基于所述当前视频帧和所述目标模板,使用所述目标对象的注意力图,获取所述目标对象的像素级伪标签;
基于所述当前视频帧和所述目标模板,获取所述目标对象的分割掩码,所述像素级伪标签和分割掩码用于标注所述当前视频帧中的目标对象;
基于所述像素级伪标签和所述分割掩码,获取损失函数,并利用所述损失函数训练所述神经网络;
其中,所述神经网络包括第一子网络和第二子网络,所述第一子网络和所述第二子网络共享权重系数,
基于所述第一子网络和所述目标模板,获取第一特征;
基于所述第二子网络和所述当前视频帧,获取第二特征;
所述分割掩码是基于所述第一特征和所述第二特征的相关图和所述第二子网络不同层的输出的集合获取的。
CN202010025616.XA 2020-01-10 2020-01-10 神经网络模型的训练方法、装置和图像处理系统 Active CN113111684B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010025616.XA CN113111684B (zh) 2020-01-10 2020-01-10 神经网络模型的训练方法、装置和图像处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010025616.XA CN113111684B (zh) 2020-01-10 2020-01-10 神经网络模型的训练方法、装置和图像处理系统

Publications (2)

Publication Number Publication Date
CN113111684A CN113111684A (zh) 2021-07-13
CN113111684B true CN113111684B (zh) 2024-05-21

Family

ID=76708598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010025616.XA Active CN113111684B (zh) 2020-01-10 2020-01-10 神经网络模型的训练方法、装置和图像处理系统

Country Status (1)

Country Link
CN (1) CN113111684B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610016B (zh) * 2021-08-11 2024-04-23 人民中科(济南)智能技术有限公司 视频帧特征提取模型的训练方法、系统、设备及存储介质
CN114549840B (zh) * 2022-02-23 2023-04-07 北京百度网讯科技有限公司 语义分割模型的训练方法和语义分割方法、装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596940A (zh) * 2018-04-12 2018-09-28 北京京东尚科信息技术有限公司 一种视频分割方法和装置
CN109754403A (zh) * 2018-11-29 2019-05-14 中国科学院深圳先进技术研究院 一种ct图像内的肿瘤自动分割方法及系统
CN109961453A (zh) * 2018-10-15 2019-07-02 华为技术有限公司 一种图像处理方法、装置与设备
CN110188754A (zh) * 2019-05-29 2019-08-30 腾讯科技(深圳)有限公司 图像分割方法和装置、模型训练方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671855B2 (en) * 2018-04-10 2020-06-02 Adobe Inc. Video object segmentation by reference-guided mask propagation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596940A (zh) * 2018-04-12 2018-09-28 北京京东尚科信息技术有限公司 一种视频分割方法和装置
CN109961453A (zh) * 2018-10-15 2019-07-02 华为技术有限公司 一种图像处理方法、装置与设备
CN109754403A (zh) * 2018-11-29 2019-05-14 中国科学院深圳先进技术研究院 一种ct图像内的肿瘤自动分割方法及系统
CN110188754A (zh) * 2019-05-29 2019-08-30 腾讯科技(深圳)有限公司 图像分割方法和装置、模型训练方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RANet: Ranking Attention Network for Fast Video Object Segmentation;Ziqin Wang;arXiv:1908.06647v4;全文 *
Video Instance Segmentation;Linjie Yang et al.;arXiv:1905.04804v4;全文 *

Also Published As

Publication number Publication date
CN113111684A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN111898696B (zh) 伪标签及标签预测模型的生成方法、装置、介质及设备
CN108985259B (zh) 人体动作识别方法和装置
KR102585234B1 (ko) 전자 기기를 위한 비전 인텔리전스 관리
US20180114071A1 (en) Method for analysing media content
US20200110965A1 (en) Method and apparatus for generating vehicle damage information
CN111078940B (zh) 图像处理方法、装置、计算机存储介质及电子设备
CN111783626B (zh) 图像识别方法、装置、电子设备及存储介质
CN110427915B (zh) 用于输出信息的方法和装置
CN113379877B (zh) 人脸视频生成方法、装置、电子设备及存储介质
CN113569740B (zh) 视频识别模型训练方法与装置、视频识别方法与装置
CN113111684B (zh) 神经网络模型的训练方法、装置和图像处理系统
CN111368668B (zh) 三维手部识别方法、装置、电子设备及存储介质
CN110472673B (zh) 参数调整方法、眼底图像处理方法、装置、介质及设备
CN113610034B (zh) 识别视频中人物实体的方法、装置、存储介质及电子设备
CN113962737A (zh) 目标识别模型训练方法和装置、目标识别方法和装置
CN111292333A (zh) 用于分割图像的方法和装置
CN111310595B (zh) 用于生成信息的方法和装置
CN113033682B (zh) 视频分类方法、装置、可读介质、电子设备
CN111353470B (zh) 图像的处理方法、装置、可读介质和电子设备
CN111291640B (zh) 用于识别步态的方法和装置
CN113822324A (zh) 基于多任务模型的图像处理方法、装置及相关设备
Yan et al. Multilevel feature aggregation and enhancement network for remote sensing change detection
CN112115740B (zh) 用于处理图像的方法和装置
CN115147434A (zh) 图像处理方法、装置、终端设备及计算机可读存储介质
CN113515994A (zh) 视频特征提取方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant