CN112861830A - 特征提取方法、装置、设备、存储介质以及程序产品 - Google Patents

特征提取方法、装置、设备、存储介质以及程序产品 Download PDF

Info

Publication number
CN112861830A
CN112861830A CN202110396281.7A CN202110396281A CN112861830A CN 112861830 A CN112861830 A CN 112861830A CN 202110396281 A CN202110396281 A CN 202110396281A CN 112861830 A CN112861830 A CN 112861830A
Authority
CN
China
Prior art keywords
frame
feature map
level feature
pixel
pixel level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110396281.7A
Other languages
English (en)
Other versions
CN112861830B (zh
Inventor
李莹莹
谭啸
孙昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110396281.7A priority Critical patent/CN112861830B/zh
Publication of CN112861830A publication Critical patent/CN112861830A/zh
Priority to KR1020227038225A priority patent/KR20220153667A/ko
Priority to JP2022560927A priority patent/JP2023525462A/ja
Priority to PCT/CN2022/075069 priority patent/WO2022218012A1/zh
Priority to US17/963,865 priority patent/US20230030431A1/en
Application granted granted Critical
Publication of CN112861830B publication Critical patent/CN112861830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种特征提取方法、装置、设备、存储介质以及程序产品,涉及人工智能领域,具体为计算机视觉和深度学习技术。该方法的一具体实施方式包括:获取视频中的第T‑1帧的预测目标分割标注图像和第T帧的像素级特征图,其中,T为大于2的正整数;对第T‑1帧的预测目标分割标注图像和第T帧的像素级特征图进行特征映射,得到第T‑1帧的映射特征图和第T帧的映射特征图;利用第T‑1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图,其中,得分图的各个点表征第T帧的像素级特征图的各个位置与第T‑1帧的预测目标分割标注图像的相似度。该实施方式使得前后帧之间信息可以更好地被提取。

Description

特征提取方法、装置、设备、存储介质以及程序产品
技术领域
本公开涉及人工智能领域,具体为计算机视觉和深度学习技术。
背景技术
VOS(Video Object Segmentation,视频目标分割)是计算机视觉领域的一个基础任务,具有非常多潜在的应用场景,例如增强现实和自动驾驶。半监督视频目标分割需要在视频序列仅有初始掩膜(Mask)的情况下提取特征,来分割目标。目前的半监督视频目标分割在提取特征时通常是分别提取视频中的前后帧的特征的。
发明内容
本公开实施例提出了一种特征提取方法、装置、设备、存储介质以及程序产品。
第一方面,本公开实施例提出了一种特征提取方法,包括:获取视频中的第T-1帧的预测目标分割标注图像和第T帧的像素级特征图,其中,T为大于2的正整数;对第T-1帧的预测目标分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图;利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图,其中,得分图的各个点表征第T帧的像素级特征图的各个位置与第T-1帧的预测目标分割标注图像的相似度。
第二方面,本公开实施例提出了一种特征提取装置,包括:获取模块,被配置成获取视频中的第T-1帧的预测目标分割标注图像和第T帧的像素级特征图,其中,T为大于2的正整数;映射模块,被配置成对第T-1帧的预测目标分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图;卷积模块,被配置成利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图,其中,得分图的各个点表征第T帧的像素级特征图的各个位置与第T-1帧的预测目标分割标注图像的相似度。
第三方面,本公开实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。
第四方面,本公开实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法。
第五方面,本公开实施例提出了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开实施例提供的特征提取方法,结合前帧的特性来提取后帧的特征,使得前后帧之间信息可以更好地被提取。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开可以应用于其中的示例性系统架构图;
图2是根据本公开的特征提取方法的一个实施例的流程图;
图3是可以实现本公开实施例的特征提取方法的场景图;
图4是根据本公开的特征融合方法的一个实施例的流程图;
图5是根据本公开的分割预测方法的一个实施例的流程图;
图6是可以实现本公开实施例的分割预测方法的场景图;
图7是根据本公开的特征提取装置的一个实施例的结构示意图;
图8是用来实现本公开实施例的特征提取方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的特征提取方法或特征提取装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括视频采集设备101,网络102和服务器103。网络102用以在视频采集设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
视频采集设备101可以通过网络102与服务器103交互,以接收或发送图像等。
视频采集设备101可以是硬件,也可以是软件。当视频采集设备101为硬件时,可以是各种带有摄像头的电子设备。当视频采集设备101为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以提供各种服务。例如,服务器103可以对从视频采集设备101获取到的视频流进行分析等处理,并生成处理结果(例如视频中的视频帧的得分图)。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开实施例所提供的特征提取方法一般由服务器103执行,相应地,特征提取装置一般设置于服务器103中。
应该理解,图1中的视频采集设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的视频采集设备、网络和服务器。
继续参考图2,其示出了根据本公开的特征提取方法的一个实施例的流程200。该特征提取方法包括以下步骤:
步骤201,获取视频中的第T-1帧的预测分割标注图像和第T帧的像素级特征图。
在本实施例中,特征提取方法的执行主体(例如图1所示的服务器103)可以获取视频中的第T-1帧的预测分割标注图像(Prediction T-1)和第T帧的像素级特征图(Pixel-level Embedding)。其中,T为大于2的正整数。
通常,视频采集设备可以采集其摄像头范围内的视频。当目标出现在视频采集设备的摄像头范围内时,采集到的视频中会存在目标。其中,目标可以是现实世界中存在的任意有形物体,包括但不限于人、动物、植物、建筑物、物品等等。第T-1帧的预测分割标注图像可以是预测出的用于分割第T-1帧中的目标的标注图像。例如,对第T-1帧中的目标的边缘进行标注所生成的图像。又例如,对第T-1帧中的目标的边缘进行标注,进而将属于目标的像素和不属于物体的像素分别设置为不同的像素值所生成的图像。第T帧的像素级特征图可以是采用特征提取网络进行像素级特征提取而得到,用于表征第T帧所具有的像素级特征。
需要说明的是,第T-1帧的预测分割标注图像可以是利用本公开实施例提供的分割预测方法预测得到,也可以是利用其它VOS网络预测得到,这里不进行具体限定。用于提取第T帧的像素级特征图的特征提取网络可以是CFBI(Collaborative Video ObjectSegmentation by Foreground-Background Integration,前背景整合的协作式视频目标分割)网络中的骨干网络(Backbone),也可以是其他VOS网络中的骨干网络,这里不进行具体限定。
步骤202,对第T-1帧的预测分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图。
在本实施例中,上述执行主体可以对第T-1帧的预测分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图。其中,第T-1帧的映射特征图和第T帧的映射特征图在同一特征空间。例如,对于127×127×3的预测分割标注图像,经过特征映射操作,得到6×6×128的映射特征图。同理,对于255×255×3的像素级特征图,经过特征映射操作,得到22×22×128的映射特征图。
在本实施例的一些可选的实现方式中,利用变换矩阵,将第T-1帧的预测分割标注图像和第T帧的像素级特征图从一个特征空间映射到另一个特征空间,即可得到第T-1帧的映射特征图和第T帧的映射特征图。其中,变换矩阵可以对图像进行线性变换,将图像从一个空间映射到另一个空间。
在本实施例的一些可选的实现方式中,上述执行主体可以采用CNN(Convolutional Neural Network,卷积神经网络)中的卷积层和池化层,分别将第T-1帧的预测分割标注图像和第T帧的像素级特征图映射到预设的特征空间,即可得到第T-1帧的映射特征图和第T帧的映射特征图。其中,利用深度学习方法进行映射,既可以对图像进行线性变换,又可以对图像进行非线性变换。通过设置不同的卷积层和池化层,能够将图像映射到任意的空间,灵活性更强。
步骤203,利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图。
在本实施例中,上述执行主体可以利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图(Score map)。其中,得分图的各个点可以表征第T帧的像素级特征图的各个位置与第T-1帧的预测分割标注图像的相似度。例如,将22×22×128的映射特征图被6×6×128的映射特征图的卷积核6×6卷积,得到17×17×1的得分图。其中,17×17×1的得分图的一个点可以表征255×255×3的像素级特征图的一个15×15×3的区域与127×127×3的预测分割标注图像的相似度。得分图的一个点对应像素级特征图的一个15×15×3的区域。
此外,上述执行主体还可以基于第T帧的得分图计算得到第T帧的相似度最高的位置,并反向计算出目标在第T-1帧的位置,从而验证第T帧的得分图的准确度。
本公开实施例提供的特征提取方法,首先获取视频中的第T-1帧的预测目标分割标注图像和第T帧的像素级特征图;然后对第T-1帧的预测目标分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图;最后利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图。结合前帧的特性来提取后帧的特征,使得前后帧之间信息可以更好地被提取。并且,后帧的像素级特征图作为整体输入,直接计算前后帧的特征图的相似度匹配,节省了计算工作量。
为了便于理解,图3示出了可以实现本公开实施例的特征提取方法的场景图。如图3所示,z代表第T-1帧的127×127×3的预测分割标注图像。x代表第T帧的255×255×3的像素级特征图。φ代表一种特征映射操作,将原始图像映射到特定的特征空间,这里采用CNN中的卷积层和池化层。z经过φ,得到6×6×128的映射特征图。同理,x经过φ,得到22×22×128的映射特征图。*代表卷积操作,将22×22×128的映射特征图被6×6×128的映射特征图的卷积核6×6卷积,得到17×17×1的得分图。17×17×1的得分图的一个点可以表征255×255×3的像素级特征图的一个15×15×3的区域与127×127×3的预测分割标注图像的相似度。得分图的一个点对应像素级特征图的一个15×15×3的区域。
进一步参考图4,其示出了根据本公开的特征融合方法的一个实施例的流程400。该特征融合方法包括以下步骤:
步骤401,获取视频中的第T-1帧的预测分割标注图像和第T帧的像素级特征图。
步骤402,对第T-1帧的预测分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图。
步骤403,利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图。
在本实施例中,步骤401-403具体操作已在图2所示的实施例中步骤201-203进行了详细的介绍,在此不再赘述。
步骤404,获取视频中的参考帧的像素级特征图,以及将第T帧的像素级特征图与参考帧的像素级特征图进行匹配,得到第T帧的第一匹配特征图。
在本实施例中,特征提取方法的执行主体(例如图1所示的服务器103)可以获取视频中的参考帧的像素级特征图,以及将第T帧的像素级特征图与参考帧的像素级特征图进行匹配,得到第T帧的第一匹配特征图。其中,参考帧具有分割标注图像,通常是视频中的第一帧。对参考帧中的目标进行分割标注,即可得到参考帧的分割标注图像。这里的分割标注通常是人工分割标注。
通常,当应用在FEELVOS(Fast End-to-End Embedding Learning for VideoObject Segmentation,快速端到端嵌入学习用于视频目标分割)网络中时,上述执行主体可以将第T帧的像素级特征图与参考帧的像素级特征图直接进行匹配。当应用在CFBI网络中时,上述执行主体也可以先将参考帧的像素级特征图分离成参考帧的前景像素级特征图和背景像素级特征图,再与第T帧的像素级特征图进行匹配。其中,前景是指画面中位于目标之前以至靠近摄像头的物体。背景是指画面中位于目标之后,远离摄像机的物体。第一匹配特征图属于像素级特征图,其各个点可以表征第T帧的像素级特征图与参考帧的像素级特征图在各个点上的匹配度。
需要说明的是,参考帧的像素级特征图的获取方式可以参考图2所示的实施例中的第T帧的像素级特征图的获取方式,这里不再赘述。
步骤405,获取第T-1帧的像素级特征图,以及将第T帧的像素级特征图与第T-1帧的像素级特征图进行匹配,得到第T帧的第二匹配特征图。
在本实施例中,上述执行主体可以获取第T-1帧的像素级特征图,以及将第T帧的像素级特征图与第T-1帧的像素级特征图进行匹配,得到第T帧的第二匹配特征图。
通常,上述执行主体可以将第T帧的像素级特征图与第T-1帧的像素级特征图直接进行匹配,也可以先将第T-1帧的像素级特征图分离成第T-1帧的前景像素级特征图(Pixel-level FG)和背景像素级特征图(Pixel-level BG),再与第T帧的像素级特征图进行匹配。第二匹配特征图属于像素级特征图,其各个点可以表征第T帧的像素级特征图与第T-1帧的像素级特征图在各个点上的匹配度。
需要说明的是,第T-1帧的像素级特征图的获取方式可以参考图2所示的实施例中的第T帧的像素级特征图的获取方式,这里不再赘述。
步骤406,将第T帧的得分图、第一匹配特征图和第二匹配特征图进行融合,得到融合像素级特征图。
在本实施例中,上述执行主体可以将第T帧的得分图、第一匹配特征图和第二匹配特征图进行融合,得到融合像素级特征图。例如,对第T帧的得分图、第一匹配特征图和第二匹配特征图进行拼接(concat)操作,即可得到融合像素级特征图。
需要说明的是,步骤401-403、步骤404和步骤405三部分可以同时执行,也可以某部分先于其他部分执行,这里对执行顺序不进行限定。
本公开实施例提供的特征融合方法,结合前帧的特性来提取后帧的特征,使得前后帧之间信息可以更好地被提取。分别基于参考帧和前帧进行特征匹配,网络结构简单且快速,能够快速地得到后帧的匹配特征,降低了特征匹配工作量。融合第T帧的得分图、第一匹配特征图和第二匹配特征图,来得到融合像素级特征图,使得融合像素级特征图充分考虑前后帧的特性,信息内容更加丰富,包含更多分割目标所需的信息。
进一步参考图5,其示出了根据本公开的分割预测方法的一个实施例的流程500。该分割预测方法包括以下步骤:
步骤501,获取视频中的第T-1帧的预测分割标注图像和第T帧的像素级特征图。
步骤502,对第T-1帧的预测分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图。
步骤503,利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图。
在本实施例中,步骤501-503具体操作已在图4所示的实施例中步骤401-403进行了详细的介绍,在此不再赘述。
步骤504,对参考帧的分割标注图像进行下采样,得到参考帧的掩膜。
在本实施例中,特征提取方法的执行主体(例如图1所示的服务器103)可以对参考帧的分割标注图像(Groundtruth)进行下采样(Downsample),得到参考帧的掩膜。
这里,参考帧的分割标注图像可以是对参考帧中的目标的边缘进行标注,进而将属于目标的像素和不属于物体的像素分别设置为不同的像素值所生成的图像。例如,将属于目标的像素设置为1,以及将不属于物体的像素设置为0。又例如,将属于目标的像素设置为0,以及将不属于物体的像素设置为1。下采样,即缩小图像,其主要目是:使得图像符合显示区域的大小;生成对应图像的缩略图。下采样原理是:对于尺寸为M*N的图像,把图像的s*s窗口内的区域变成一个像素(其值通常是像素点的值就是窗口内所有像素的均值),即得到(M/s)*(N/s)尺寸的图像。其中,M、N、s为正整数,且s是M和N的公约数。参考帧的掩膜可以用于从参考帧的像素级特征图中提取感兴趣区域。例如,将参考帧的掩膜与参考帧的像素级特征图进行与运算,即可得到感兴趣区域图像。其中,感兴趣区域图像只包括前景或背景中的一种。
步骤505,将参考帧输入至预先训练的特征提取网络,得到参考帧的像素级特征图。
在本实施例中,上述执行主体可以将参考帧输入至预先训练的特征提取网络,得到参考帧的像素级特征图。这里,将参考帧输入至CFBI网络中的骨干网络进行像素级特征提取,即可得到参考帧的像素级特征图。
步骤506,利用参考帧的掩膜对参考帧的像素级特征图进行像素级分离,得到参考帧的前景像素级特征图和背景像素级特征图。
在本实施例中,上述执行主体可以利用参考帧的掩膜对参考帧的像素级特征图进行像素级分离(Pixel Separation),得到参考帧的前景像素级特征图和背景像素级特征图。
例如,对于前景像素为1,背景像素为0的掩膜,将其与像素级特征图进行与运算,得到前景像素级特征图。对于前景像素为0,背景像素为1的掩膜,将其与像素级特征图进行与运算,得到背景像素级特征图。
步骤507,将第T帧的像素级特征图与参考帧的前景像素级特征图和背景像素级特征图进行前景-背景全局匹配,得到第T帧的第一匹配特征图。
在本实施例中,上述执行主体可以将第T帧的像素级特征图与参考帧的前景像素级特征图和背景像素级特征图进行前景-背景全局匹配(F-G Global Matching),得到第T帧的第一匹配特征图。
通常,在与参考帧的像素进行匹配时,会在第T帧的全平面上进行匹配搜索。具体地,将第T帧的像素级特征图与参考帧的前景像素级特征图和背景像素级特征图分别进行全局匹配。
步骤508,对第T-1帧的预测分割标注图像进行下采样,得到第T-1帧的掩膜。
在本实施例中,上述执行主体可以对第T-1帧的预测分割标注图像进行下采样,得到第T-1帧的掩膜。
这里,第T-1帧的分割标注图像可以是对第T-1帧中的目标的边缘进行标注,进而将属于目标的像素和不属于物体的像素分别设置为不同的像素值所生成的图像。例如,将属于目标的像素设置为1,以及将不属于物体的像素设置为0。又例如,将属于目标的像素设置为0,以及将不属于物体的像素设置为1。第T-1帧的掩膜可以用于从第T-1帧的像素级特征图中提取感兴趣区域。例如,将第T-1帧的掩膜与第T-1帧的像素级特征图进行与运算,即可得到感兴趣区域图像。其中,感兴趣区域图像只包括前景或背景中的一种。
步骤509,将第T-1帧输入至预先训练的特征提取网络,得到第T-1帧的像素级特征图。
在本实施例中,上述执行主体可以将第T-1帧输入至预先训练的特征提取网络,得到第T-1帧的像素级特征图。这里,将第T-1帧输入至CFBI网络中的骨干网络进行像素级特征提取,即可得到第T-1帧的像素级特征图。
步骤510,利用第T-1帧的掩膜对第T-1帧的像素级特征图进行像素级分离,得到第T-1帧的前景像素级特征图和背景像素级特征图。
在本实施例中,上述执行主体可以利用第T-1帧的掩膜对第T-1帧的像素级特征图进行像素级分离,得到第T-1帧的前景像素级特征图和背景像素级特征图。
例如,对于前景像素为1,背景像素为0的掩膜,将其与像素级特征图进行与运算,得到前景像素级特征图。对于前景像素为0,背景像素为1的掩膜,将其与像素级特征图进行与运算,得到背景像素级特征图。
步骤511,将第T帧的像素级特征图与第T-1帧的前景像素级特征图和背景像素级特征图进行前景-背景多局部匹配,得到第T帧的第二匹配特征图。
在本实施例中,上述执行主体可以将第T帧的像素级特征图与第T-1帧的前景像素级特征图和背景像素级特征图进行前景-背景多局部匹配(F-G Multi-Local Matching),得到第T帧的第二匹配特征图。
通常,在与第T-1帧的像素进行匹配时,由于帧间的运动范围是有限的,会在第T-1帧像素的领域内进行匹配搜索。由于不同的视频往往有着不同的运动速率,因此采用多窗口(领域)的匹配形式,以使得网络在处理不同运动速率的物体时更为鲁棒。具体地,将第T帧的像素级特征图与第T-1帧的前景像素级特征图和背景像素级特征图分别进行多局部匹配。其中,多局部匹配是设置从小到大多个窗口,一个窗口进行一次局部匹配。
步骤512,将第T帧的得分图、第一匹配特征图和第二匹配特征图进行融合,得到融合像素级特征图。
在本实施例中,步骤512具体操作已在图4所示的实施例中步骤406进行了详细的介绍,在此不再赘述。
步骤513,将参考帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到参考帧的前景实例级特征向量和背景实例级特征向量。
在本实施例中,上述执行主体可以将参考帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到参考帧的前景实例级特征向量(Instance-levelFG)和背景实例级特征向量(Instance-level BG)。
通常,将前景像素特征图和背景像素特征图在特征通道上进行了全局池化,将像素尺度的特征图转为实例尺度的池化向量。池化向量会基于注意力机制,对CFBI网络的协作集成器(Collaborative Ensembler)中的特征的通道进行调整。由此,网络能更好的获取实例尺度的信息。
步骤514,将第T-1帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到第T-1帧的前景实例级特征向量和背景实例级特征向量。
在本实施例中,上述执行主体可以将第T-1帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到第T-1帧的前景实例级特征向量和背景实例级特征向量。
通常,将前景像素特征图和背景像素特征图在特征通道上进行了全局池化,将像素尺度的特征图转为实例尺度的池化向量。池化向量会基于注意力机制,对CFBI网络的协作集成器中的特征的通道进行调整。由此,网络能更好的获取实例尺度的信息。
步骤515,将参考帧的前景实例级特征向量和背景实例级特征向量,以及第T-1帧的前景实例级特征向量和背景实例级特征向量进行融合,得到融合实例级特征向量。
在本实施例中,上述执行主体可以将参考帧的前景实例级特征向量和背景实例级特征向量,以及第T-1帧的前景实例级特征向量和背景实例级特征向量进行融合,得到融合实例级特征向量。例如,对参考帧的前景实例级特征向量和背景实例级特征向量,以及第T-1帧的前景实例级特征向量和背景实例级特征向量进行拼接操作,即可得到融合实例级特征图。
步骤516,将第T帧的低层像素级特征图、融合像素级特征向量和融合实例级特征向量输入至协作集成器,得到第T帧的预测分割标注图像。
在本实施例中,上述执行主体可以将第T帧的低层像素级特征图(low-level-feature)、融合像素级特征向量和融合实例级特征向量输入至协作集成器,得到第T帧的预测分割标注图像(Prediction T)。基于第T帧的预测分割标注图像对第T帧进行分割,即可得到第T帧中的目标。
为了隐式地汇总学习到前景与背景的像素级和实例级的信息,采用协作集成器来构造较大的接收场,以实现精准地预测。
本公开实施例提供的分割预测方法,不仅从前景像素中嵌入学习,还从背景像素中嵌入学习以进行协作,将前景与背景的特征形成对比,以缓解背景混乱,从而提升分割预测结果的准确度。在前景像素和背景像素的协作下,进一步从像素级别和实例级别进行嵌入匹配。对于像素级匹配,提高了各种目标移动速率下局部匹配的鲁棒性。对于实例级匹配,设计了一个注意力机制,有效地增强像素级匹配。在CFBI网络的基础上加入跟踪网络的思想,使得前后帧之间的信息可以更好的被提取。相当于在CFBI网络中多增加了一层监督信号,所提取的特征更能代表模型所需,从而提高网络分割效果。
需要说明的是,特征提取方法不仅可用于CFBI网络中,还可用于其他VOS网络中,嵌入网络的位置可以根据实际情况做相应调整。
为了便于理解,图6示出了可以实现本公开实施例的分割预测方法的场景图。如图6所示,将视频中的第1帧、第T-1帧和第T帧输入至CFBI网络中的Backbone,得到第1帧、第T-1帧和第T帧的Pixel-level Embedding,以及对第1帧的Groundtruth和第T-1帧的Prediction T-1进行Downsample,得到第1帧和第T-1帧的Mask。利用第T-1帧的PredictionT-1的映射特征图的卷积核对第T帧的Pixel-level Embedding的映射特征图卷积,得到第T帧的Score map。利用第1帧的Mask对第1帧的Pixel-level Embedding进行PixelSeparation,得到第1帧的Pixel-level FG和Pixel-level BG。将第T帧的Pixel-levelEmbedding与第1帧的Pixel-level FG和Pixel-level BG进行F-G Global Matching,得到第T帧的第一匹配特征图。利用第T-1帧的Mask对第T-1帧的Pixel-level Embedding进行Pixel Separation,得到第T-1帧的Pixel-level FG和Pixel-level BG。将第T帧的Pixel-level Embedding与第T-1帧的Pixel-level FG和Pixel-level BG进行F-G Multi-LocalMatching,得到第T帧的第二匹配特征图。将第1帧和第T-1帧的Pixel-level FG和Pixel-level BG在特征通道上进行全局池化,得到第1帧和第T-1帧的Instance-level FG和Instance-level BG。将第T帧的Score map、第一匹配特征图和第二匹配特征图进行concat操作。同时将第1帧和第T-1帧的Instance-level FG和Instance-level BG进行concat操作。将融合特征连同第T帧的low-level-feature一起输入至Collaborative Ensembler,即可得到第T帧的Prediction T。
进一步参考图7,作为对上述各图所示方法的实现,本公开提供了一种特征提取装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的特征提取装置700可以包括:获取模块701、映射模块702和卷积模块703。其中,获取模块701,被配置成获取视频中的第T-1帧的预测分割标注图像和第T帧的像素级特征图,其中,T为大于2的正整数;映射模块702,被配置成对第T-1帧的预测分割标注图像和第T帧的像素级特征图进行特征映射,得到第T-1帧的映射特征图和第T帧的映射特征图;卷积模块703,被配置成利用第T-1帧的映射特征图的卷积核对第T帧的映射特征图卷积,得到第T帧的得分图,其中,得分图的各个点表征第T帧的像素级特征图的各个位置与第T-1帧的预测分割标注图像的相似度。
在本实施例中,特征提取装置700中:获取模块701、映射模块702和卷积模块703的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,映射模块702进一步被配置成:采用卷积神经网络中的卷积层和池化层,分别将第T-1帧的预测分割标注图像和第T帧的像素级特征图映射到预设的特征空间。
在本实施例的一些可选的实现方式中,特征提取装置700还包括:第一匹配模块,被配置成获取视频中的参考帧的像素级特征图,以及将第T帧的像素级特征图与参考帧的像素级特征图进行匹配,得到第T帧的第一匹配特征图,其中,参考帧具有分割标注图像;第二匹配模块,被配置成获取第T-1帧的像素级特征图,以及将第T帧的像素级特征图与第T-1帧的像素级特征图进行匹配,得到第T帧的第二匹配特征图;第一融合模块,被配置成将第T帧的得分图、第一匹配特征图和第二匹配特征图进行融合,得到融合像素级特征图。
在本实施例的一些可选的实现方式中,第一匹配模块进一步被配置成:对参考帧的分割标注图像进行下采样,得到参考帧的掩膜;将参考帧输入至预先训练的特征提取网络,得到参考帧的像素级特征图;利用参考帧的掩膜对参考帧的像素级特征图进行像素级分离,得到参考帧的前景像素级特征图和背景像素级特征图;将第T帧的像素级特征图与参考帧的前景像素级特征图和背景像素级特征图进行前景-背景全局匹配,得到第T帧的第一匹配特征图。
在本实施例的一些可选的实现方式中,第二匹配模块进一步被配置成:对第T-1帧的预测分割标注图像进行下采样,得到第T-1帧的掩膜;将第T-1帧输入至预先训练的特征提取网络,得到第T-1帧的像素级特征图;利用第T-1帧的掩膜对第T-1帧的像素级特征图进行像素级分离,得到第T-1帧的前景像素级特征图和背景像素级特征图;将第T帧的像素级特征图与第T-1帧的前景像素级特征图和背景像素级特征图进行前景-背景多局部匹配,得到第T帧的第二匹配特征图。
在本实施例的一些可选的实现方式中,特征提取装置700还包括:第一池化模块,被配置成将参考帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到参考帧的前景实例级特征向量和背景实例级特征向量;第二池化模块,被配置成将第T-1帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到第T-1帧的前景实例级特征向量和背景实例级特征向量;第二融合模块,被配置成将参考帧的前景实例级特征向量和背景实例级特征向量,以及第T-1帧的前景实例级特征向量和背景实例级特征向量进行融合,得到融合实例级特征向量。
在本实施例的一些可选的实现方式中,特征提取装置700还包括:预测模块,被配置成将第T帧的低层像素级特征图、融合像素级特征向量和融合实例级特征向量输入至协作集成器,得到第T帧的预测分割标注图像。、
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如特征提取方法。例如,在一些实施例中,特征提取方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的特征提取方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行特征提取方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (17)

1.一种特征提取方法,包括:
获取视频中的第T-1帧的预测目标分割标注图像和第T帧的像素级特征图,其中,T为大于2的正整数;
对所述第T-1帧的预测目标分割标注图像和所述第T帧的像素级特征图进行特征映射,得到所述第T-1帧的映射特征图和所述第T帧的映射特征图;
利用所述第T-1帧的映射特征图的卷积核对所述第T帧的映射特征图卷积,得到所述第T帧的得分图,其中,所述得分图的各个点表征所述第T帧的像素级特征图的各个位置与所述第T-1帧的预测目标分割标注图像的相似度。
2.根据权利要求1所述的方法,其中,所述对所述第T-1帧的预测目标分割标注图像和所述第T帧的像素级特征图进行特征映射,包括:
采用卷积神经网络中的卷积层和池化层,分别将所述第T-1帧的预测目标分割标注图像和所述第T帧的像素级特征图映射到预设的特征空间。
3.根据权利要求1或2所述的方法,其中,所述方法还包括:
获取所述视频中的参考帧的像素级特征图,以及将所述第T帧的像素级特征图与所述参考帧的像素级特征图进行匹配,得到所述第T帧的第一匹配特征图,其中,所述参考帧具有目标分割标注图像;
获取所述第T-1帧的像素级特征图,以及将所述第T帧的像素级特征图与所述第T-1帧的像素级特征图进行匹配,得到所述第T帧的第二匹配特征图;
将所述第T帧的得分图、第一匹配特征图和第二匹配特征图进行融合,得到融合像素级特征图。
4.根据权利要求3所述的方法,其中,所述获取所述视频中的参考帧的像素级特征图,以及将所述第T帧的像素级特征图与所述参考帧的像素级特征图进行匹配,得到所述第T帧的第一匹配特征图,包括:
对所述参考帧的目标分割标注图像进行下采样,得到所述参考帧的掩膜;
将所述参考帧输入至预先训练的特征提取网络,得到所述参考帧的像素级特征图;
利用所述参考帧的掩膜对所述参考帧的像素级特征图进行像素级分离,得到所述参考帧的前景像素级特征图和背景像素级特征图;
将所述第T帧的像素级特征图与所述参考帧的前景像素级特征图和背景像素级特征图进行前景-背景全局匹配,得到所述第T帧的第一匹配特征图。
5.根据权利要求4所述的方法,其中,所述获取所述第T-1帧的像素级特征图,以及将所述第T帧的像素级特征图与所述第T-1帧的像素级特征图进行匹配,得到所述第T帧的第二匹配特征图,包括:
对所述第T-1帧的预测目标分割标注图像进行下采样,得到所述第T-1帧的掩膜;
将所述第T-1帧输入至预先训练的特征提取网络,得到所述第T-1帧的像素级特征图;
利用所述第T-1帧的掩膜对所述第T-1帧的像素级特征图进行像素级分离,得到所述第T-1帧的前景像素级特征图和背景像素级特征图;
将所述第T帧的像素级特征图与所述第T-1帧的前景像素级特征图和背景像素级特征图进行前景-背景多局部匹配,得到所述第T帧的第二匹配特征图。
6.根据权利要求5所述的方法,其中,所述方法还包括:
将所述参考帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到所述参考帧的前景实例级特征向量和背景实例级特征向量;
将所述第T-1帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到所述第T-1帧的前景实例级特征向量和背景实例级特征向量;
将所述参考帧的前景实例级特征向量和背景实例级特征向量,以及所述第T-1帧的前景实例级特征向量和背景实例级特征向量进行融合,得到融合实例级特征向量。
7.根据权利要求6所述的方法,其中,所述方法还包括:
将所述第T帧的低层像素级特征图、所述融合像素级特征向量和所述融合实例级特征向量输入至协作集成器,得到所述第T帧的预测目标分割标注图像。
8.一种特征提取装置,包括:
获取模块,被配置成获取视频中的第T-1帧的预测目标分割标注图像和第T帧的像素级特征图,其中,T为大于2的正整数;
映射模块,被配置成对所述第T-1帧的预测目标分割标注图像和所述第T帧的像素级特征图进行特征映射,得到所述第T-1帧的映射特征图和所述第T帧的映射特征图;
卷积模块,被配置成利用所述第T-1帧的映射特征图的卷积核对所述第T帧的映射特征图卷积,得到所述第T帧的得分图,其中,所述得分图的各个点表征所述第T帧的像素级特征图的各个位置与所述第T-1帧的预测目标分割标注图像的相似度。
9.根据权利要求8所述的装置,其中,所述映射模块进一步被配置成:
采用卷积神经网络中的卷积层和池化层,分别将所述第T-1帧的预测目标分割标注图像和所述第T帧的像素级特征图映射到预设的特征空间。
10.根据权利要求8或9所述的装置,其中,所述装置还包括:
第一匹配模块,被配置成获取所述视频中的参考帧的像素级特征图,以及将所述第T帧的像素级特征图与所述参考帧的像素级特征图进行匹配,得到所述第T帧的第一匹配特征图,其中,所述参考帧具有目标分割标注图像;
第二匹配模块,被配置成获取所述第T-1帧的像素级特征图,以及将所述第T帧的像素级特征图与所述第T-1帧的像素级特征图进行匹配,得到所述第T帧的第二匹配特征图;
第一融合模块,被配置成将所述第T帧的得分图、第一匹配特征图和第二匹配特征图进行融合,得到融合像素级特征图。
11.根据权利要求10所述的装置,其中,所述第一匹配模块进一步被配置成:
对所述参考帧的目标分割标注图像进行下采样,得到所述参考帧的掩膜;
将所述参考帧输入至预先训练的特征提取网络,得到所述参考帧的像素级特征图;
利用所述参考帧的掩膜对所述参考帧的像素级特征图进行像素级分离,得到所述参考帧的前景像素级特征图和背景像素级特征图;
将所述第T帧的像素级特征图与所述参考帧的前景像素级特征图和背景像素级特征图进行前景-背景全局匹配,得到所述第T帧的第一匹配特征图。
12.根据权利要求11所述的装置,其中,所述第二匹配模块进一步被配置成:
对所述第T-1帧的预测目标分割标注图像进行下采样,得到所述第T-1帧的掩膜;
将所述第T-1帧输入至预先训练的特征提取网络,得到所述第T-1帧的像素级特征图;
利用所述第T-1帧的掩膜对所述第T-1帧的像素级特征图进行像素级分离,得到所述第T-1帧的前景像素级特征图和背景像素级特征图;
将所述第T帧的像素级特征图与所述第T-1帧的前景像素级特征图和背景像素级特征图进行前景-背景多局部匹配,得到所述第T帧的第二匹配特征图。
13.根据权利要求12所述的装置,其中,所述装置还包括:
第一池化模块,被配置成将所述参考帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到所述参考帧的前景实例级特征向量和背景实例级特征向量;
第二池化模块,被配置成将所述第T-1帧的前景像素级特征图和背景像素级特征图在特征通道上进行全局池化,得到所述第T-1帧的前景实例级特征向量和背景实例级特征向量;
第二融合模块,被配置成将所述参考帧的前景实例级特征向量和背景实例级特征向量,以及所述第T-1帧的前景实例级特征向量和背景实例级特征向量进行融合,得到融合实例级特征向量。
14.根据权利要求13所述的装置,其中,所述装置还包括:
预测模块,被配置成将所述第T帧的低层像素级特征图、所述融合像素级特征向量和所述融合实例级特征向量输入至协作集成器,得到所述第T帧的预测目标分割标注图像。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
CN202110396281.7A 2021-04-13 2021-04-13 特征提取方法、装置、设备、存储介质以及程序产品 Active CN112861830B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202110396281.7A CN112861830B (zh) 2021-04-13 2021-04-13 特征提取方法、装置、设备、存储介质以及程序产品
KR1020227038225A KR20220153667A (ko) 2021-04-13 2022-01-29 특징 추출 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램
JP2022560927A JP2023525462A (ja) 2021-04-13 2022-01-29 特徴を抽出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
PCT/CN2022/075069 WO2022218012A1 (zh) 2021-04-13 2022-01-29 特征提取方法、装置、设备、存储介质以及程序产品
US17/963,865 US20230030431A1 (en) 2021-04-13 2022-10-11 Method and apparatus for extracting feature, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110396281.7A CN112861830B (zh) 2021-04-13 2021-04-13 特征提取方法、装置、设备、存储介质以及程序产品

Publications (2)

Publication Number Publication Date
CN112861830A true CN112861830A (zh) 2021-05-28
CN112861830B CN112861830B (zh) 2023-08-25

Family

ID=75992531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110396281.7A Active CN112861830B (zh) 2021-04-13 2021-04-13 特征提取方法、装置、设备、存储介质以及程序产品

Country Status (5)

Country Link
US (1) US20230030431A1 (zh)
JP (1) JP2023525462A (zh)
KR (1) KR20220153667A (zh)
CN (1) CN112861830B (zh)
WO (1) WO2022218012A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113570607A (zh) * 2021-06-30 2021-10-29 北京百度网讯科技有限公司 目标分割的方法、装置及电子设备
CN113610885A (zh) * 2021-07-12 2021-11-05 大连民族大学 使用差异对比学习网络的半监督目标视频分割方法及系统
WO2022218012A1 (zh) * 2021-04-13 2022-10-20 北京百度网讯科技有限公司 特征提取方法、装置、设备、存储介质以及程序产品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580249B (zh) * 2023-06-06 2024-02-20 河北中废通拍卖有限公司 基于集成学习模型的拍品分类方法、系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005657A1 (en) * 2017-06-30 2019-01-03 Baidu Online Network Technology (Beijing) Co., Ltd . Multiple targets-tracking method and apparatus, device and storage medium
CN110427839A (zh) * 2018-12-26 2019-11-08 西安电子科技大学 基于多层特征融合的视频目标检测方法
CN111462132A (zh) * 2020-03-20 2020-07-28 西北大学 一种基于深度学习的视频物体分割方法及系统
CN111507997A (zh) * 2020-04-22 2020-08-07 腾讯科技(深圳)有限公司 图像分割方法、装置、设备及计算机存储介质
US20200334830A1 (en) * 2018-06-20 2020-10-22 Tencent Technology (Shenzhen) Company Limited Method, apparatus, and storage medium for processing video image
CN112434618A (zh) * 2020-11-26 2021-03-02 西安电子科技大学 基于稀疏前景先验的视频目标检测方法、存储介质及设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671855B2 (en) * 2018-04-10 2020-06-02 Adobe Inc. Video object segmentation by reference-guided mask propagation
US10269125B1 (en) * 2018-10-05 2019-04-23 StradVision, Inc. Method for tracking object by using convolutional neural network including tracking network and computing device using the same
US11763565B2 (en) * 2019-11-08 2023-09-19 Intel Corporation Fine-grain object segmentation in video with deep features and multi-level graphical models
CN111260688A (zh) * 2020-01-13 2020-06-09 深圳大学 一种孪生双路目标跟踪方法
CN112132232A (zh) * 2020-10-19 2020-12-25 武汉千屏影像技术有限责任公司 医学图像的分类标注方法和系统、服务器
CN112861830B (zh) * 2021-04-13 2023-08-25 北京百度网讯科技有限公司 特征提取方法、装置、设备、存储介质以及程序产品

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005657A1 (en) * 2017-06-30 2019-01-03 Baidu Online Network Technology (Beijing) Co., Ltd . Multiple targets-tracking method and apparatus, device and storage medium
US20200334830A1 (en) * 2018-06-20 2020-10-22 Tencent Technology (Shenzhen) Company Limited Method, apparatus, and storage medium for processing video image
CN110427839A (zh) * 2018-12-26 2019-11-08 西安电子科技大学 基于多层特征融合的视频目标检测方法
CN111462132A (zh) * 2020-03-20 2020-07-28 西北大学 一种基于深度学习的视频物体分割方法及系统
CN111507997A (zh) * 2020-04-22 2020-08-07 腾讯科技(深圳)有限公司 图像分割方法、装置、设备及计算机存储介质
CN112434618A (zh) * 2020-11-26 2021-03-02 西安电子科技大学 基于稀疏前景先验的视频目标检测方法、存储介质及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张婷: "多样化场景中的半监督视频目标分割算法研究", 《中国优秀硕士论文 信息科技辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022218012A1 (zh) * 2021-04-13 2022-10-20 北京百度网讯科技有限公司 特征提取方法、装置、设备、存储介质以及程序产品
CN113570607A (zh) * 2021-06-30 2021-10-29 北京百度网讯科技有限公司 目标分割的方法、装置及电子设备
CN113570607B (zh) * 2021-06-30 2024-02-06 北京百度网讯科技有限公司 目标分割的方法、装置及电子设备
CN113610885A (zh) * 2021-07-12 2021-11-05 大连民族大学 使用差异对比学习网络的半监督目标视频分割方法及系统
CN113610885B (zh) * 2021-07-12 2023-08-22 大连民族大学 使用差异对比学习网络的半监督目标视频分割方法及系统

Also Published As

Publication number Publication date
US20230030431A1 (en) 2023-02-02
CN112861830B (zh) 2023-08-25
WO2022218012A1 (zh) 2022-10-20
JP2023525462A (ja) 2023-06-16
KR20220153667A (ko) 2022-11-18

Similar Documents

Publication Publication Date Title
JP7236545B2 (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
CN112861830B (zh) 特征提取方法、装置、设备、存储介质以及程序产品
US11270158B2 (en) Instance segmentation methods and apparatuses, electronic devices, programs, and media
US20190156144A1 (en) Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device
US11222211B2 (en) Method and apparatus for segmenting video object, electronic device, and storage medium
CN112529073A (zh) 模型训练方法、姿态估计方法、装置及电子设备
CN113688907B (zh) 模型训练、视频处理方法,装置,设备以及存储介质
CN113570606B (zh) 目标分割的方法、装置及电子设备
CN112967315B (zh) 一种目标跟踪方法、装置及电子设备
CN112528858A (zh) 人体姿态估计模型的训练方法、装置、设备、介质及产品
CN113570610A (zh) 采用语义分割模型对视频进行目标分割的方法、装置
CN113538235A (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
CN114332590B (zh) 联合感知模型训练、联合感知方法、装置、设备和介质
CN113591675A (zh) 图像识别模型的构建方法、装置、设备以及存储介质
CN108229281B (zh) 神经网络的生成方法和人脸检测方法、装置及电子设备
CN115272705B (zh) 显著性物体检测模型的训练方法、装置以及设备
CN116402914A (zh) 用于确定风格化图像生成模型的方法、装置及产品
CN116363429A (zh) 图像识别模型的训练方法、图像识别方法、装置及设备
CN115330851A (zh) 单目深度估计方法、装置、电子设备、存储介质及车辆
CN115019057A (zh) 图像特征提取模型确定方法及装置、图像识别方法及装置
CN114549904A (zh) 视觉处理及模型训练方法、设备、存储介质及程序产品
CN114842066A (zh) 图像深度识别模型训练方法、图像深度识别方法及装置
CN113610856A (zh) 训练图像分割模型和图像分割的方法和装置
CN113554550A (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
CN112990328A (zh) 特征融合方法、装置、设备、存储介质以及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant