CN114120172B - 基于视频的目标检测方法、装置、电子设备及存储介质 - Google Patents

基于视频的目标检测方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114120172B
CN114120172B CN202111279650.0A CN202111279650A CN114120172B CN 114120172 B CN114120172 B CN 114120172B CN 202111279650 A CN202111279650 A CN 202111279650A CN 114120172 B CN114120172 B CN 114120172B
Authority
CN
China
Prior art keywords
target
video
prediction
feature
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111279650.0A
Other languages
English (en)
Other versions
CN114120172A (zh
Inventor
张伟
谭啸
孙昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111279650.0A priority Critical patent/CN114120172B/zh
Publication of CN114120172A publication Critical patent/CN114120172A/zh
Application granted granted Critical
Publication of CN114120172B publication Critical patent/CN114120172B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了基于视频的目标检测方法、装置、电子设备及存储介质,涉及人工智能技术领域,具体涉及计算机视觉和深度学习技术领域。方案为:根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;采用目标识别模型的编码器对目标特征进行编码,以得到编码特征;将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征;将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。由此,通过对视频级别的目标特征进行编码,能够更好地融合不同视频帧之间的信息,提高视频的目标检测效果的准确性。

Description

基于视频的目标检测方法、装置、电子设备及存储介质
技术领域
本公开涉及人工智能技术领域,具体涉及计算机视觉和深度学习技术领域,尤其涉及基于视频的目标检测方法、装置、电子设备及存储介质。
背景技术
在智慧城市、智能交通、视频分析场景下,对视频中的车辆、行人、物体等事物或目标进行精准检测,可以为车辆统计等任务提供帮助。因此,如何实现视频中的目标检测是非常重要的。
发明内容
本公开提供了一种用于基于视频的目标检测方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种基于视频的目标检测方法,包括:根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;采用目标识别模型的编码器对所述目标特征进行编码,以得到编码特征;将所述编码特征输入所述目标识别模型的解码器进行解码,以得到所述待检测视频中多个待检测目标的解码特征;将所述解码特征输入所述目标识别模型的预测层进行目标预测,以得到所述预测层输出的预测框的位置,以及得到所述预测框内目标所属的类别。
根据本公开的另一方面,提供了一种基于视频的目标检测装置,包括:生成模块,用于根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;编码模块,用于采用目标识别模型的编码器对所述目标特征进行编码,以得到编码特征;解码模块,用于将所述编码特征输入所述目标识别模型的解码器进行解码,以得到所述待检测视频中多个待检测目标的解码特征;预测模块,用于将所述解码特征输入所述目标识别模型的预测层进行目标预测,以得到所述预测层输出的预测框的位置,以及得到所述预测框内目标所属的类别。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开第一方面实施例所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本公开第一方面实施例所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开第一方面实施例所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开实施例的目标识别模型的结构示意图;
图6是根据本公开第五实施例的示意图;
图7是根据本公开实施例的目标检测原理示意图;
图8是根据本公开第六实施例的示意图;
图9是用来实现本公开实施例的基于视频的目标检测方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在智慧城市、智能交通、视频分析场景下,对视频中的车辆、行人、物体等事物或目标进行精准检测,可以为车辆统计等任务提供帮助。因此,如何实现视频中的目标检测是非常重要的。
相关技术中,主要通过以下两种方式进行目标检测,第一方式是,基于Faster-RCNN(Faster Region CNN,快速区域卷积神经网络)等二阶段单帧检测网络,对每一帧图像进行目标检测;第二方面是,基于DETR (Detection Transformer,Transformer的视觉版本)等自注意力机制的端到端单帧目标检测模型搭建视频目标检测算法,但是,上述基于Faster-RCNN 的方案只对物体框特征进行融合,基于DETR的方案只对编码器输出的特征进行融合,主干网络(如,backbone网络)特征提取环节依然是每帧图像单独进行,导致特征融合不充分,目标检测效果不准确。
针对上述问题,本公开提出一种基于视频的目标检测方法、装置、电子设备及存储介质。
图1是根据本公开第一实施例的示意图。需要说明的是,本公开实施例的基于视频的目标检测方法可应用于本公开实施例的基于视频的目标检测装置,该装置可被配置于电子设备中。其中,该电子设备可以是移动终端,例如,手机、平板电脑、个人数字助理等具有各种操作系统的硬件设备。
如图1所示,该基于视频的目标检测方法可包括如下步骤:
步骤101,根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征。
在本公开实施例中,待检测视频可以为在线采集的视频,比如可以通过网络爬虫技术,在线采集待检测视频,或者,待检测视频也可以为线下采集的视频,或者,待检测视频也可以为实时采集的视频流,或者,待检测视频也可以为人工合成的视频,等等,本公开实施例对此并不做限制。
在本公开实施例中,可根据待检测视频中的各视频帧以及各视频帧的时间戳,提取待检测视频对应的目标特征。其中,需要说明的是,各视频帧的时间戳可为待检测视频中各个视频帧的播放时间,目标特征可为融合了待检测视频中的各视频帧特征以及各视频帧的时间戳的特征。
步骤102,采用目标识别模型的编码器对目标特征进行编码,以得到编码特征。
进一步地,可将目标特征输入目标识别模型的编码器中,编码器可对目标特征进行编码,得到编码特征,其中,该目标识别模型可以为以 Transformer为基本结构的模型,或者,也可以为其他结构的模型,比如为 Transformer的变种结构的模型。
在本公开实施例中,目标识别模型为经过训练的模型,比如可以基于机器学习技术或深度学习技术,对初始的目标识别模型进行训练,使得经过训练的目标识别模型能够学习得到特征图与检测结果之间的对应关系。
步骤103,将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征。
进一步地,将编码特征输入目标识别模型的解码器中,解码器对编码特征进行解码,以得到待检测视频中多个待检测目标的解码特征。
例如,可以根据解码器中的模型参数对编码特征执行矩阵乘法运算,得到注意力机制中的各分量,根据注意力机制中的各分量,确定解码特征。
步骤104,将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。
在本公开实施例中,可以利用目标识别模型中的预测层对解码特征进行目标预测,得到检测结果,其中,检测结果包括预测框的位置和预测框内目标所属的类别。目标可以包括车辆、人、物体、动物等任一目标对象,类别可以包括车辆、人等类别。
综上,通过根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;采用目标识别模型的编码器对目标特征进行编码,以得到编码特征;将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征;将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。由此,通过对视频级别的目标特征进行编码,能够更好地融合不同视频帧之间的信息,提高了目标检测效果的准确性。
为了使获取的待检测视频对应的目标特征更好地融合各视频帧的特征以及各视频帧的时间戳,如图2所示,图2是根据本公开第二实施例的示意图,在本公开实施例中,可通过待检测视频中个视频帧以及各视频帧的时间戳生成输入数据C×H×W×T,并将输入数据输入视频特征提取模型中以进行特征提取,图2所示实施例可包括如下步骤:
步骤201,根据待检测视频中各视频帧以及各视频帧的时间戳生成输入数据C×H×W×T,其中,C为多个待检测视频的图像通道数、H为待检测视频的帧高度、W为待检测视频的帧宽度,以及T为待检测视频的帧数。
在本公开实施例中,可根据待检测视频中各视频帧的特征信息以及各视频帧的时间戳,生成输入数据C×H×W×T,其中,C为多个待检测视频的图像通道数、H为待检测视频的帧高度、W为待检测视频的帧宽度,以及T为待检测视频的帧数。
步骤202,将输入数据输入视频特征提取模型进行特征提取,以得到目标特征。
进一步地,可将输入数据输入至视频特征提取模型中,视频特征提取模型可输出待检测视频对应的目标特征。其中,需要说明的是,视频特征提取模型的输入数据为四维数据C×H×W×T,视频特征提取模型的输出的目标特征对应为C′×H′×W′×T′的立体特征,其中,W′为目标特征中的多个宽度分量,H′为目标特征中的多个高度分量,C′为目标特征图的多个维度分量,T′为目标特征中的多个帧数分量。
步骤203,采用目标识别模型的编码器对目标特征进行编码,以得到编码特征。
步骤204,将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征。
步骤205,将解码特征输入所述目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。
需要说明的是,步骤203-205的执行过程可以参见上述实施例的执行过程,在此不做赘述。
综上,通过根据待检测视频中各视频帧以及各视频帧的时间戳生成输入数据C×H×W×T,其中,C为多个待检测视频的图像通道数、H为待检测视频的帧高度、W为待检测视频的帧宽度,以及T为待检测视频的帧数;将输入数据输入视频特征提取模型进行特征提取,以得到目标特征。由此,可准确地获取目标特征,并使目标特征融合了各视频帧的特征以及各视频帧的时间戳。
为了进一步融合各个视频帧之间的特征,如图3所示,图3是根据本公开第三实施例的示意图,在本公开实施例中,可将目标特征输入至目标识别模型的编码器中进行编码,以得到编码特征,图3所示实施例可包括如下步骤:
步骤301,根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征。
步骤302,针对目标特征中的任意一个维度的目标特征,与目标特征各其余维度的目标特征之间的相似度,确定各其余维度的目标特征对应的权重。
在本公开实施例中,目标特征可为四维数据C′×H′×W′×T′,对于目标特征中的任意一个维度的目标特征,可与各其余维度的目标特征计算相似度,并将计算出的相似度作为各其余维度的目标特征对应的权重。
步骤303,根据各其余维度的目标特征对应的权重,将各其余维度的目标特征与一个维度的目标特征进行融合,以得到编码特征中对应维度的特征。
进一步地,根据各其余维度的目标特征对应的权重,与各其余维度的目标特征与一个维度的目标特征进行加权求和,根据加权求和结果对一个维度的目标特征进行更新,将更新后的各个维度的目标特征作为编码特征中对应维度的特征。
需要了解的是,单帧图像的特征通常为W′(宽)×H′(高)×C′(通道channel或特征维度)的立体的特征图,在本公开实施例中,视频级别的目标特征相对于单帧图像的特征具有更高的维度,对视频级别的目标特征进行编码,可以更好地融合各个视频帧之间的信息,进一步提高了目标检测效果。
步骤304,将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征。
步骤305,将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。
需要说明的是,步骤301、304-305的执行过程可以参见上述实施例的执行过程,在此不做赘述。
综上,通过针对目标特征中的任意一个维度的目标特征,与目标特征各其余维度的目标特征之间的相似度,确定各其余维度的目标特征对应的权重;根据各其余维度的目标特征对应的权重,将各其余维度的目标特征与一个维度的目标特征进行融合,以得到编码特征中对应维度的特征。由此,目标识别模型的编码器可使目标特征中进一步融合各个视频帧之间的特征信息,提高了的目标检测效果。
为了准确地得到预测结果,如图4所示,图4是根据本公开第四实施例的示意图,在本公开实施例中,可将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及根据各预测层所预测的类别,确定对应预测层输出的预测框内目标所属的类别,图4所示实施例可包括如下步骤:
步骤401,根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征。
步骤402,采用目标识别模型的编码器对目标特征进行编码,以得到编码特征。
步骤403,将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征。
步骤404,获取解码特征中的多个预测维度。
在本公开实施例中,预测维度与目标识别模型中能够被识别的目标个数有关,例如,预测维度可以与目标识别模型中能够被识别的目标个数的上限值相关。比如,预测维度可以处于100至200之间。
步骤405,将解码特征中各预测维度的特征分别输入至对应的预测层,以得到各预测层输出的预测框的位置。
应当理解的是,目标识别模型可以识别数量较多的目标,然而受限于视频帧的取景画面,画面中包含的目标个数有限,为了兼顾目标检测结果的准确性,以及避免资源浪费,可以根据预测维度的个数,确定预测层的个数。其中,预测层的个数与预测维度的个数相同。
在本公开实施例中,可以将解码特征中各预测维度的特征分别输入至对应的预测层,以得到各预测层输出的预测框的位置。
步骤406,根据各预测层所预测的类别,确定对应预测层输出的预测框内目标所属的类别。
在本申请实施例中,可以根据各预测层所预测类别,确定对应预测层输出的预测框内目标所属的类别。
作为一种示例,以目标识别模型为以Transformer为基本结构的模型进行示例性说明,目标识别模型的结构可以如图5所示,预测层为FFN (Feed-Forward Network,前馈网络)。
其中,目标特征为C'×H'×W'×T'的立体特征,可以对立体的目标特征图进行分块处理,得到序列化的特征向量序列(即将融合后的目标特征图转化为token(特征图中的元素)),即转化为H'×W'×T'个C'维特征向量,序列化的特征向量输入至编码器进行注意力学习(注意力机制可以达到帧间增强效果),得到的特征向量序列再输入至解码器,解码器根据输入的特征向量序列进行注意力学习,得到的解码特征再使用FFN(Feed-ForwardNetwork,前馈神经网络)进行最终的目标检测,即可以由FFN进行分类和回归的预测,得到检测结果。其中,FFN输出的box即为预测框的位置,可以根据预测框的位置确定预测框;FFN输出的class即为预测框内目标所属的类别;no object是指没有目标。也就是说,可以将解码特征输入FFN,由FFN进行目标的回归预测,以得到预测框的位置,并由FFN进行目标的类别预测,以得到预测框内的目标所属的类别。
需要说明的是,步骤401-403的执行过程可以参见上述实施例的执行过程,在此不做赘述。
综上,通过获取解码特征中的多个预测维度;将解码特征中各预测维度的特征分别输入至对应的预测层,以得到各预测层输出的预测框的位置;根据各预测层所预测的类别,确定对应预测层输出的预测框内目标所属的类别,由此,可以实现根据多层预测层对解码特征进行目标预测,可以避免目标的遗漏检测,进一步提升目标检测结果的准确性和可靠性。
为了进一步提升目标检测结果的准确性,如图6所示,图6是根据本公开第五实施例的示意图,在本公开实施例中,将目标特征输入编码器之前,可将目标特征与位置图进行融合,以对目标特征进行更新,图6所示实施例可包括如下步骤:
步骤601,根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征。
步骤602,针对目标特征,将目标特征与对应的位置图进行融合,以得到具有位置信息的输入特征,其中,位置图中各元素与目标特征中各元素一一对应,位置图中的元素,用于指示目标特征中对应元素在对应视频帧中的坐标。
在本公开实施例中,位置图中的各元素与目标特征中的各元素一一对应,其中,位置图中的每个元素,用于指示目标特征中对应元素在对应视频帧中的坐标。
在本公开实施例的一种可能的实现方式中,可以将目标特征与对应的位置图进行拼接,得到输入特征。
作为一种示例,以目标识别模型为以Transformer为基本结构的模型进行示例,本公开的目标检测原理可以如图7所示,可以将CNN输出的目标特征与位置图相加或拼接,得到输入特征。
在本公开实施例的一种可能的实现方式中,可以将目标特征与对应的位置图进行拼接,得到拼接特征,将拼接特征输入卷积层,以融合得到输入特征。
步骤603,根据具有位置信息的输入特征,对目标特征进行更新。
进一步地,可根据具有位置信息的输入特征,对目标特征进行更新,比如,可将具有位置信息的输入特征,作为目标特征,进而,将具有位置信息的输入特征输入至编码器中进行编码,以得到编码特征。
步骤604,采用目标识别模型的编码器对目标特征进行编码,以得到编码特征。
步骤605,将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征。
步骤606,将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。
需要说明的是,步骤601、604-606的执行过程可以参见上述实施例的执行过程,在此不做赘述。
综上,通过针对目标特征,将目标特征与对应的位置图进行融合,以得到具有位置信息的输入特征,其中,位置图中各元素与目标特征中各元素一一对应,位置图中的元素,用于指示目标特征中对应元素在对应视频帧中的坐标;根据具有位置信息的输入特征,对目标特征进行更新。由此,通过目标特征与位置图结合,来进行目标检测,可以提升目标检测结果的准确性。
本公开实施例的基于视频的目标检测方法,通过根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;采用目标识别模型的编码器对目标特征进行编码,以得到编码特征;将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征;将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。由此,通过对视频级别的目标特征进行编码,能够更好地融合不同视频帧之间的信息,提高了目标检测效果的准确性。
为了实现上述实施例,本公开提出一种基于视频的目标检测装置。
图8是根据本公开第六实施例的示意图,如图8所示,基于视频的目标检测装置800包括:生成模块810、编码模块820、解码模块830和预测模块840。
其中,生成模块810,用于根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;编码模块820,用于采用目标识别模型的编码器对目标特征进行编码,以得到编码特征;解码模块830,用于将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征;预测模块840,用于将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。
作为本公开实施例的一种可能实现方式,生成模块,用于:根据待检测视频中各视频帧以及各视频帧的时间戳生成输入数据C×H×W×T,其中,所述C为多个待检测视频的图像通道数、H为待检测视频的帧高度、W为待检测视频的帧宽度,以及T为待检测视频的帧数;将输入数据输入视频特征提取模型进行特征提取,以得到目标特征。
作为本公开实施例的一种可能实现方式,编码模块,用于:针对目标特征中的任意一个维度的目标特征,与所述目标特征各其余维度的目标特征之间的相似度,确定各所述其余维度的目标特征对应的权重;根据各其余维度的目标特征对应的权重,将各其余维度的目标特征与一个维度的目标特征进行融合,以得到编码特征中对应维度的特征。
作为本公开实施例的一种可能实现方式,预测模块,用于:获取解码特征中的多个预测维度;将解码特征中各预测维度的特征分别输入至对应的预测层,以得到各预测层输出的预测框的位置;根据各预测层所预测的类别,确定对应预测层输出的预测框内目标所属的类别。
作为本公开实施例的一种可能实现方式,基于视频的目标检测装置 800还包括:处理模块和更新模块。
其中,处理模块,用于针对目标特征,将目标特征与对应的位置图进行融合,以得到具有位置信息的输入特征,其中,位置图中各元素与所述目标特征中各元素一一对应,位置图中的元素,用于指示目标特征中对应元素在对应视频帧中的坐标;更新模块,用于根据具有位置信息的输入特征,对目标特征进行更新。
本公开实施例的基于视频的目标检测装置,根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;采用目标识别模型的编码器对目标特征进行编码,以得到编码特征;将编码特征输入目标识别模型的解码器进行解码,以得到待检测视频中多个待检测目标的解码特征;将解码特征输入目标识别模型的预测层进行目标预测,以得到预测层输出的预测框的位置,以及得到预测框内目标所属的类别。由此,通过对视频级别的目标特征进行编码,能够更好地融合不同视频帧之间的信息,提高了目标检测效果的准确性。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均在征得用户同意的前提下进行,并且均符合相关法律法规的规定,且不违背公序良俗。
为了实现上述实施例,本公开提出一种电子设备,该电子设备包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例所述的基于视频的目标检测方法。
为了实现上述实施例,本公开提出一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行上述实施例所述的基于视频的目标检测方法。
为了实现上述实施例,本公开提出一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现上述实施例所述的基于视频的目标检测方法。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在 RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O) 接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如基于视频的目标检测方法。例如,在一些实施例中,基于视频的目标检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的基于视频的目标检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件) 而被配置为执行基于视频的目标检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/ 或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入) 来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (8)

1.一种基于视频的目标检测方法,包括:
根据待检测视频中各视频帧以及各视频帧的时间戳生成输入数据;
将所述输入数据输入视频特征提取模型进行特征提取,以得到目标特征;
针对所述目标特征中的任意一个维度的目标特征,与所述目标特征各其余维度的目标特征之间的相似度,确定各所述其余维度的目标特征对应的权重;
根据各所述其余维度的目标特征对应的权重,将各所述其余维度的目标特征与所述任意一个维度的目标特征进行融合得到编码特征;
将所述编码特征输入所述目标识别模型的解码器进行解码,以得到所述待检测视频中多个待检测目标的解码特征;
获取所述解码特征中的多个预测维度;
将所述解码特征中各预测维度的特征分别输入至对应的预测层,以得到各所述预测层输出的预测框的位置;
根据各所述预测层所预测的类别,确定对应预测层输出的所述预测框内目标所属的类别。
2.根据权利要求1所述的方法,其中,所述输入数据包括:
C×H×W×T,其中,所述C为多个所述待检测视频的图像通道数、H为所述待检测视频的帧高度、W为所述待检测视频的帧宽度,以及T为所述待检测视频的帧数。
3.根据权利要求1-2任一项所述的方法,其中,所述得到编码特征之前,还包括:
针对所述目标特征,将所述目标特征与对应的位置图进行融合,以得到具有位置信息的输入特征,其中,所述位置图中各元素与所述目标特征中各元素一一对应,所述位置图中的元素,用于指示所述目标特征中对应元素在对应视频帧中的坐标;
根据所述具有位置信息的输入特征,对所述目标特征进行更新。
4.一种基于视频的目标检测装置,包括:
生成模块,用于根据待检测视频中各视频帧以及各视频帧的时间戳生成目标特征;
编码模块,用于采用目标识别模型的编码器对所述目标特征进行编码,以得到编码特征;
解码模块,用于将所述编码特征输入所述目标识别模型的解码器进行解码,以得到所述待检测视频中多个待检测目标的解码特征;
预测模块,用于将所述解码特征输入所述目标识别模型的预测层进行目标预测,以得到所述预测层输出的预测框的位置,以及得到所述预测框内目标所属的类别;
所示生成模块,用于:
根据所述待检测视频中各视频帧以及各视频帧的时间戳生成输入数据;
将所述输入数据输入视频特征提取模型进行特征提取,以得到目标特征;
所述编码模块,用于:
针对所述目标特征中的任意一个维度的目标特征,与所述目标特征各其余维度的目标特征之间的相似度,确定各所述其余维度的目标特征对应的权重;
根据各所述其余维度的目标特征对应的权重,将各所述其余维度的目标特征与所述一个维度的目标特征进行融合,以得到所述编码特征;
所述预测模块,用于:
获取所述解码特征中的多个预测维度;
将所述解码特征中各预测维度的特征分别输入至对应的预测层,以得到各所述预测层输出的所述预测框的位置;
根据各所述预测层所预测的类别,确定对应预测层输出的所述预测框内目标所属的类别。
5.根据权利要求4所述的装置,其中,所述输入数据,包括:
C×H×W×T,其中,所述C为多个所述待检测视频的图像通道数、H为所述待检测视频的帧高度、W为所述待检测视频的帧宽度,以及T为所述待检测视频的帧数。
6.根据权利要求4-5任一项所述的装置,其中,所述装置还包括:
处理模块,用于针对所述目标特征,将所述目标特征与对应的位置图进行融合,以得到具有位置信息的输入特征,其中,所述位置图中各元素与所述目标特征中各元素一一对应,所述位置图中的元素,用于指示所述目标特征中对应元素在对应视频帧中的坐标;
更新模块,用于根据所述具有位置信息的输入特征,对所述目标特征进行更新。
7.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-3中任一项所述的方法。
CN202111279650.0A 2021-10-29 2021-10-29 基于视频的目标检测方法、装置、电子设备及存储介质 Active CN114120172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111279650.0A CN114120172B (zh) 2021-10-29 2021-10-29 基于视频的目标检测方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111279650.0A CN114120172B (zh) 2021-10-29 2021-10-29 基于视频的目标检测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN114120172A CN114120172A (zh) 2022-03-01
CN114120172B true CN114120172B (zh) 2023-08-29

Family

ID=80380029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111279650.0A Active CN114120172B (zh) 2021-10-29 2021-10-29 基于视频的目标检测方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114120172B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116070172B (zh) * 2022-11-16 2023-06-02 北京理工大学 增强时间序列的特征表达性的方法
CN115761444B (zh) * 2022-11-24 2023-07-25 张栩铭 一种非完整信息目标识别模型的训练方法及目标识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016459A (zh) * 2020-08-28 2020-12-01 上海大学 一种基于自注意力机制的驾驶员动作识别方法
CN112417988A (zh) * 2020-10-30 2021-02-26 深圳点猫科技有限公司 一种基于深度学习的视频多目标跟踪方法、装置及设备
CN113222916A (zh) * 2021-04-28 2021-08-06 北京百度网讯科技有限公司 采用目标检测模型检测图像的方法、装置、设备和介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10841577B2 (en) * 2018-02-08 2020-11-17 Electronics And Telecommunications Research Institute Method and apparatus for video encoding and video decoding based on neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016459A (zh) * 2020-08-28 2020-12-01 上海大学 一种基于自注意力机制的驾驶员动作识别方法
CN112417988A (zh) * 2020-10-30 2021-02-26 深圳点猫科技有限公司 一种基于深度学习的视频多目标跟踪方法、装置及设备
CN113222916A (zh) * 2021-04-28 2021-08-06 北京百度网讯科技有限公司 采用目标检测模型检测图像的方法、装置、设备和介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
葛宝义 ; 左宪章 ; 胡永江 ; .基于特征融合的长时目标跟踪算法.光学学报.2018,(11),第211-223页. *

Also Published As

Publication number Publication date
CN114120172A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN113222916B (zh) 采用目标检测模型检测图像的方法、装置、设备和介质
CN113657390B (zh) 文本检测模型的训练方法和检测文本方法、装置和设备
CN113313022B (zh) 文字识别模型的训练方法和识别图像中文字的方法
CN114120172B (zh) 基于视频的目标检测方法、装置、电子设备及存储介质
CN113936256A (zh) 一种图像目标检测方法、装置、设备以及存储介质
CN113901909B (zh) 基于视频的目标检测方法、装置、电子设备和存储介质
CN114820871B (zh) 字体生成方法、模型的训练方法、装置、设备和介质
CN113869205A (zh) 对象检测方法、装置、电子设备和存储介质
CN113591566A (zh) 图像识别模型的训练方法、装置、电子设备和存储介质
EP4123595A2 (en) Method and apparatus of rectifying text image, training method and apparatus, electronic device, and medium
CN113326773A (zh) 识别模型训练方法、识别方法、装置、设备及存储介质
CN113902007A (zh) 模型训练方法及装置、图像识别方法及装置、设备和介质
CN116363459A (zh) 目标检测方法、模型训练方法、装置、电子设备及介质
CN114715145B (zh) 一种轨迹预测方法、装置、设备及自动驾驶车辆
CN113887615A (zh) 图像处理方法、装置、设备和介质
CN114863182A (zh) 图像分类方法、图像分类模型的训练方法及装置
CN112966140B (zh) 字段识别方法、装置、电子设备、存储介质和程序产品
CN113723607A (zh) 时空数据处理模型的训练方法、装置、设备及存储介质
CN115097941B (zh) 人物交互检测方法、装置、设备以及存储介质
CN114973333B (zh) 人物交互检测方法、装置、设备以及存储介质
US20230027813A1 (en) Object detecting method, electronic device and storage medium
CN113989569B (zh) 图像处理方法、装置、电子设备和存储介质
CN113177483B (zh) 视频目标分割方法、装置、设备以及存储介质
CN114187318A (zh) 图像分割的方法、装置、电子设备以及存储介质
CN113989720A (zh) 目标检测方法、训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant