CN113255812A - 视频边框检测方法、装置和电子设备 - Google Patents

视频边框检测方法、装置和电子设备 Download PDF

Info

Publication number
CN113255812A
CN113255812A CN202110628897.2A CN202110628897A CN113255812A CN 113255812 A CN113255812 A CN 113255812A CN 202110628897 A CN202110628897 A CN 202110628897A CN 113255812 A CN113255812 A CN 113255812A
Authority
CN
China
Prior art keywords
information
video
frame
feature
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110628897.2A
Other languages
English (en)
Other versions
CN113255812B (zh
Inventor
周杰
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youzhuju Network Technology Co Ltd
Original Assignee
Beijing Youzhuju Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Youzhuju Network Technology Co Ltd filed Critical Beijing Youzhuju Network Technology Co Ltd
Priority to CN202110628897.2A priority Critical patent/CN113255812B/zh
Publication of CN113255812A publication Critical patent/CN113255812A/zh
Application granted granted Critical
Publication of CN113255812B publication Critical patent/CN113255812B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本公开实施例公开了视频边框检测方法、装置和电子设备。该方法的一具体实施方式包括:获取待检测视频的至少两个视频帧;融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。由此,可以提供一种新的视频边框检测方式。

Description

视频边框检测方法、装置和电子设备
技术领域
本公开涉及互联网技术领域,尤其涉及一种视频边框检测方法、装置和电子设备。
背景技术
随着互联网的发展,用户越来越多利用电子设备实现各种功能。用户可以电子设备播放视频。在播放视频时,为了适应播放窗口的需要,可能会由用户或者视频播放平台为视频添加一些边框,使得原视频(或者图片)的尺寸发生变化。
在一些应用场景中,可能需要找到并去除添加至视频的边框。
发明内容
提供该公开内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该公开内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开实施例提供了一种视频边框检测方法,该方法包括:获取待检测视频的至少两个视频帧;融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。
第二方面,本公开实施例提供了一种视频边框检测装置,包括:获取单元,用于获取待检测视频的至少两个视频帧;生成单元,用于融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。
第三方面,本公开实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的视频边框检测方法。
第四方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的视频边框检测方法的步骤。
本公开实施例提供的视频边框检测方法、装置和电子设备,通过融合待检测视频的至少两个视频帧的图像特征,得到特征融合图;然后,基于特征融合图,生成待检测视频的边框信息。由此,可以提高边框检测的准确率。
具体来说,同一视频中视频帧之间的边框位置和边框内容相对固定。由多个视频帧进行特征融合得到的特征融合图,可以加大视频帧中视频内容和边框的差异,避免了单帧视频帧中边框和视频内容边界不明显而导致的检测准确率较低。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的视频边框检测方法的一个实施例的流程图;
图2是根据本公开的视频边框检测方法的又一个实施例的流程图;
图3A和图3B是根据本公开的视频边框检测方法的一个应用场景的示意图;
图4是根据本公开的视频边框检测方法的一个应用场景的示意图;
图5是根据本公开的视频边框检测装置的一个实施例的结构示意图;
图6是本公开的一个实施例的视频边框检测方法可以应用于其中的示例性系统架构;
图7是根据本公开实施例提供的电子设备的基本结构的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
请参考图1,其示出了根据本公开的视频边框检测方法的一个实施例的流程。如图1所示该视频边框检测方法,包括以下步骤:
步骤101,获取待检测视频的至少两个视频帧。
在本实施例中,视频边框检测方法的执行主体(例如服务器或者终端设备)可以获取待检测视频的至少两个视频帧。
在这里,待检测视频可以是任意形式的视频。待检测视频可以包括多个视频帧。获取的待检测视频的至少两个视频帧,可以是待检测视频的全部或者部分视频帧。
步骤102,融合至少两个视频帧的图像特征得到特征融合图,以及基于特征融合图生成待检测视频的边框信息。
在这里,融合至少两个视频帧的图像特征,可以通过各种方式实现。
作为示例,可以将指示两个视频帧的对应像素的像素值进行加和,得到特征融合图。
在本实施例中,待检测视频的边框信息,可以指示待检测视频的边框的相关特征。
在一些实施例中,边框信息可以包括但是不限于以下至少一项:边框位置信息和边框类型信息。
可选的,边框位置信息可以指示边框在视频帧中的位置,边框类型信息可以指示边框所属的类型。如果视频帧中没有边框,那么边框位置信息可以采用空值表征(没有边框)。
可选的,边框所属的类型可以包括但是不限于以下至少一项:纯色边框、高斯模糊边框和图片边框。需要说明的是,设置边框位置信息,可以准确指示边框在图像中的位置,从而为后续处理边框指定准确位置,提高边框处理效率。设置边框类型信息,可以为处理边框选取较为合适的方式,提高边框处理的准确度。
在一些应用场景中,可以检测特征融合图中边框边缘位置,以确定边框位置。例如,可以遍历对比相邻列的像素,确定边界像素列,边界像素列的特点可以包括与一侧的相邻列类似、与另一侧相邻列差异较大。由此,如果边界像素列相邻,各两个边界像素列可能分别属于视频内容和视频边框,即可以确定视频边框边缘。
需要说明的是,本实施例提供的视频边框检测方法,融合待检测视频的至少两个视频帧的图像特征,得到特征融合图;然后,基于特征融合图,生成待检测视频的边框信息。由此,可以提高边框检测的准确率。
具体来说,同一视频中视频帧之间的边框位置和边框内容相对固定。由多个视频帧进行特征融合得到的特征融合图,可以加大视频帧中视频内容和边框的差异,避免了单帧视频帧中边框和视频内容边界不明显而导致的检测准确率较低。
在一些实施例中,上述步骤103,可以包括以下至少一项但不限于:提取特征融合图在第一方向的特征得到第一方向特征信息,以及根据第一方向特征信息确定第一方向的边框信息;提取特征融合图在第二方向的特征得到第二方向特征信息,以及根据第二方向特征信息确定第二方向的边框信息。
在这里,对第一方向的具体指向不做限定。在一些实施例中,第一方向可以指向图像的宽度方向。
在这里,对第二方向的具体指向不做限定。在一些实施例中,第二方向可以指向图像的高度方向。
需要说明的是,提取第一方向和/或第二方向的特征信息,得到第一方向和/或第二方向的边框信息,可以检测两个方向是否存在边框,避免遗漏视频中的边框,提高边框检测的准确率。
可选的,第一方向和第二方向可以相互垂直。需要说明的是,第一方向和第二方向垂直,可以避免两个方向的信息出现重合,从而可以以两个方向的特征向量表征全图特征,提高信息表征率,即以尽量少的信息数量表征图像特征。
可选的,第一方向指向宽度方向,第二方向指向高度方向,由此,可以将尽量贴合边框设置特点(边框边缘与图像边缘平行),降低边框检测的难度和计算量,提高边框检测的准确率。
在一些实施例中,上述步骤102,可以包括:将所述至少两个视频帧,导入预先建立的边框检测模型,得到所述边框信息。
在这里,上述边框检测模型基于初始神经网络和训练样本训练得到。训练样本包括视频数据和标签,标签可以包括视频数据的边框信息。可选的,边框检测模型的具体结构,可以根据实际应用场景设置,在此不做限定。
需要说明的是,设置边框检测模型,边框检测模型以至少两个视频帧为输入,融合至少两个视频帧的特征,以及基于融合的特征得到边框信息,由此,可以利用神经网络对于隐形特征的提取能力,使得特征融合的方式适用于边框检测场景,提高边框检测场景中准确率。
在一些实施例中,上述边框检测模型可以包括以下至少一项但不限于:特征融合层、方向特征提取层和全连接层。
在这里,上述特征融合层用于融合所述至少两个视频帧的特征得到特征融合图。
在这里,上述方向特征提取层用于提取特征融合图中的至少一个方向的特征信息。
在这里,上述全连接层用于基于各个方向的特征信息生成各个方向的边框信息。
在一些实施例中,上述步骤所述将所述至少两个视频帧,导入预先建立的边框检测模型,得到所述边框信息,可以包括:采用特征融合层处理所述至少两个视频帧,得到所述特征融合图;采用所述方向特征提取层提取所述特征融合图中的至少一个方向的特征信息,得到至少一个方向特征信息;采用所述全连接层处理方向特征信息,得到各个方向的边框信息。
一些实施例中,可以图2、图3A、图3B和图4。图2示出了步骤102的一种示例性实现方式。图3A示出了提取特征融合图301在第一方向的特征信息,得到第一方向的特征信息301;图3B示出了提取特征融合图301在第二方向的特征信息302,得到第二方向的特征信息。图4示出了采用边框检测检测模型处理至少两个视频帧的场景示意图。
步骤201,将至少两个视频帧输入预先训练的特征融合层中,得到特征融合图。
在这里,可以对待检测视频的视频帧进行分组得到至少一个视频帧组,以及从每个视频帧组中抽取至少一个视频帧作为目标视频帧。然后,调整目标视频帧的尺寸。将原尺寸的或者调整尺寸之后的至少两个视频帧,作为视频矩阵,导入预先训练的特征融合层。
作为示例,可以对待检测视频进行均分。例如,将待检测视频的100个视频帧分为10组,每组抽10个视频帧。从每组视频帧中,抽取1个视频帧。由此,可以抽出10个视频帧。这10个视频帧可以作为目标视频帧。
作为示例,可以对这10个视频帧,进行尺寸调整(resize),例如可以调整为256*256(即长度方向256个像素、宽度方向256个像素)的视频帧。由此,可以得到10*3*256*256的视频矩阵,在这里,3可以指示图片通道数(即RGB通道)。
在这里,可以选取各种结构的神经网络作为特征融合层的基础网络。作为示例,基础网络可以包括SlowFast、C3D或I3D等视频级模型。可以对基础网络进行训练,得到上述特征融合层。
作为示例,特征融合层可以对视频矩阵进行卷积、池化等操作。
作为示例,特征融合层输出的特征融合图,可以包括特征矩阵,此特征矩阵可以为10*256*100*100。在这里,256可以指示特征维度,100*100可以指示输出的特征图的长宽方向的像素均为100。
步骤202,采用第一卷积核处理特征融合图,得到第一方向特征信息。
一些实施例中,方向特征提取层可以包括以下至少一项但不限于:第一卷积核和第二卷积核。
在这里,第一方向可以指示待检测视频在第一方向的第一方向信息。
作为示例,第一卷积核的尺寸可以是10*256*100*3*128,即与第一特征矩阵等宽;由此,如图3A所示,可以得到第一方向特征信息(如302所示)的尺寸为1*100*128。
步骤203,采用第二卷积核处理特征融合图,得到第二方向特征信息。
在这里,第二方向特征信息可以指示待检测视频在第二方向的第二方向信息。
作为示例,第二卷积核的尺寸可以是10*256*3*100*128,即与第一特征矩阵等高;由此,如图3B所示,可以得到的第三特征矩阵(如303所示)的尺寸可以是100*1*128。
步骤204,采用第一全连接层处理第一方向特征信息得到第一方向边框位置信息;采用第一全连接层处理第二方向特征信息,得到第二方向边框位置信息。
在一些实施例中,全连接层可以包括第一全连接层。第一全连接层可以用于生成边框位置信息。
作为示例,第一全连接层可以是128*2的矩阵,采用第一全连接层处理第一方向特征信息,可以得到1*100*2的第一方向边框位置矩阵。在这里,100可以指示待检测视频在第一方向的100个位置。
作为示例,采用第二全连接层处理第二方向特征信息,可以得到100*1*2的第二方向边框位置矩阵。在这里,100可以指示待检测视频在第二方向的100个位置。
作为示例,第一方向边框位置矩阵和第二方向边框位置矩阵中的2可以指示两个数字。这两个数字,一个可以指示这个位置(即100个位置中的任一)是否在边框边缘;另外一个可以指示这个位置和实际边框位置的距离差距。
举例来说,待检测视频是宽*高(即width*height)为2000*1000,如果在视频的高的方向第123个像素点为边框和实际视频的边缘,则1*100*2这个矩阵中,位置[0,12,0]和[0,13,0]的标签为1,位置[0,12,1]的标签为0.3,位置[0,13,1]的标签为-0.7。在实际使用时,我们看到模型预测结果的[0,12,0]=1,可以得知视频在竖直方向上120~130像素点存在边框边缘,由看到[0,12,1]的模型预测结果为0.3,可以得知视频边框距离第120个像素点正向偏移了3个像素点,最后我们可以知道在竖直方向上123的像素点位置有视频边框边缘。
可以理解,第一方向边框位置矩阵可以理解为第一方向边框位置新,第二方向边框位置矩阵可以理解为第二方向边框位置信息。
步骤205,采用第二全连接层,处理所述第一方向特征信息,得到第一方向边框类型信息;采用第二全连接层,处理所述第二方向特征信息,得到第二方向边框类型信息。
作为示例,第二全连接层可以出差128*3的矩阵。采用第二全连接层对第一方向特征信息进行全连接计算,得到1*100*3的第一方向边框类型矩阵。在这里,100代表待检测视频在第一方向的100个位置。
作为示例,采用第二全连接层对第二方向特征信息进行全连接计算,得到100*1*3的第二方向边框类型矩阵。在这里,100代表待检测视频在第二方向的100个位置。
作为示例,第一方向边框类型矩阵和第二方向边框类型矩阵中的尺寸中的3,可以指示边框类型的数量。例如,位置[0,20,0]的数值,可以指示边框为纯色边框的概率;位置[0,20,1]的数值,可以指示边框为高斯模糊边框的概率;位置[0,20,2]的数值,可以指示边框为图片边框的概率。
可以理解的,第一方向边框类型矩阵可以理解为第一方向边框类型信息,第二方向边框类型矩阵可以理解为第二方向边框类型信息。
需要说明的是,上述图2所示的各个步骤之间的前后顺序不做限定,例如,可能步骤205在步骤204之前执行,也可能步骤204和步骤205同时执行。
在一些实施例中,上述边框检测模型,可以各种方式训练得到。
在一些应用场景中,可以对初始神经网络进行训练得到神经网络。
首先,可以生成训练样本。
其中,所生成的训练样本可以包括边框。样本与标签对应,标签可以指示样本中的边框位置和边框类型。
在这里,可以收集视频数据,并从收集的视频数据中确定有边框的视频和没有边框的视频。
可选的,对于有边框的视频,可以标出边框的位置,用于模型训练。
可选的,对于没有边框的视频,可以生成视频边框。
作为示例,可以随机选取1/3没有边框的视频,随机在左右(或者上下)两边补宽度为20%至40%的边框,所补边框的类型可以是纯色,可选的,可以在所补的边框区域随机加入若干字符。
作为示例,可以随机选取1/3没有边框的视频,随机在左右(或者上下)两边补宽度为20%至40%的边框,所补边框的类型可以是高斯模糊边框。
作为示例,可以随机选取1/3没有边框的视频,随机在左右(或者上下)两边补宽度为20%至40%的边框,所补边框的类型可以是图片边框。
然后,将训练样本导入初始神经网络,根据初始神经网络的输出结果和训练样本的标签,调整初始神经网络得到边框检测模型。
可选的,对于有无边框、边框位置偏差和边框类别这些不同的项,可以采用不同的损失值计算方式。
可选的,对于有无边框的分类部分,可以使用二分类的交叉熵损失函数。
可选的,还可以针对没有边框的位置设置生效概率。例如,针对有边框的位置,损失值一直参与计算;针对没有边框的位置,部分(例如10%)损失值参与计算。
由此,可以在正负样本不均衡的情况下,提高训练的准确率和训练速度。可以理解,训练样本中,属于视频边框边缘的位置的数量,远远小于不属于视频边框边缘的位置的数量,因此,训练样本中的正区域(有边框)和负区域(无边框)的数量可能不均衡。
可选的,对于边框位置偏差回归的损失值计算,可以使用均方差损失函数计算。
可选的,对于边框类型分类的损失值计算,可以使用交叉熵损失函数计算。
在一些应用场景中,发明人使用梯度下降法进行模型训练,训练数据量为1000万,约1天后训练完成,模型收敛。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种视频边框检测装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的视频边框检测装置包括:获取单元501和生成单元502。其中,获取单元,用于获取待检测视频的至少两个视频帧;生成单元,用于融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。
在本实施例中,视频边框检测装置的获取单元501和生成单元502的具体处理及其所带来的技术效果可分别参考图1对应实施例中步骤101和步骤102的相关说明,在此不再赘述。
在一些实施例中,所述基于所述特征融合图生成所述待检测视频的边框信息,包括以下至少一项:提取特征融合图在第一方向的特征得到第一方向特征信息,以及根据第一方向特征信息确定第一方向的边框信息;提取特征融合图在第二方向的特征得到第二方向特征信息,以及根据第二方向特征信息确定第二方向的边框信息。
在一些实施例中,边框信息,包括以下至少一项:边框位置信息和边框类型信息。
在一些实施例中,所述融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息,包括:将所述至少两个视频帧,导入预先建立的边框检测模型,得到所述边框信息,,其中,所述边框检测模型基于初始神经网络和训练样本训练得到,训练样本包括视频数据和对应的标签,标签包括视频数据的边框信息。
在一些实施例中,所述边框检测模型包括以下至少一项:特征融合层、方向特征提取层和全连接层;以及所述将所述至少两个视频帧,导入预先建立的边框检测模型,得到所述边框信息,包括:采用特征融合层处理所述至少两个视频帧,得到所述特征融合图;采用所述方向特征提取层提取所述特征融合图中的至少一个方向的特征信息,得到至少一个方向特征信息;采用所述全连接层处理方向特征信息,得到各个方向的边框信息。
在一些实施例中,所述方向特征提取层包括以下至少一项:第一卷积核和第二卷积核;以及所述采用所述方向特征提取层提取所述特征融合图中的至少一个方向的特征信息,得到至少一个方向特征信息,包括:采用第一卷积核处理所述特征融合图,得到第一方向特征信息;采用第二卷积核处理所述特征融合图,得到第二方向特征信息。
在一些实施例中,所述全连接层包括第一全连接层;以及所述采用所述全连接层处理方向特征信息,得到各个方向的边框信息,包括:采用第一全连接层,处理所述第一方向特征信息,得到第一方向边框位置信息;采用第一全连接层,处理所述第二方向特征信息,得到第二方向边框位置信息。
在一些实施例中,所述全连接层包括第二全连接层;以及所述采用所述全连接层处理方向特征信息,得到各个方向的边框信息,包括:采用第二全连接层,处理所述第一方向特征矩阵,得到第一方向边框类型信息;采用第二全连接层,处理所述第二方向特征矩阵,得到第二方向边框类型信息。
请参考图6,图6示出了本公开的一个实施例的视频边框检测方法可以应用于其中的示例性系统架构。
如图6所示,系统架构可以包括终端设备601、602、603,网络604,服务器605。网络604用以在终端设备601、602、603和服务器605之间提供通信链路的介质。网络604可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备601、602、603可以通过网络604与服务器605交互,以接收或发送消息等。终端设备601、602、603上可以安装有各种客户端应用,例如网页浏览器应用、搜索类应用、新闻资讯类应用。终端设备601、602、603中的客户端应用可以接收用户的指令,并根据用户的指令完成相应的功能,例如根据用户的指令在信息中添加相应信息。
终端设备601、602、603可以是硬件,也可以是软件。当终端设备601、602、603为硬件时,可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备601、602、603为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器605可以是提供各种服务的服务器,例如接收终端设备601、602、603发送的信息获取请求,根据信息获取请求通过各种方式获取信息获取请求对应的展示信息。并展示信息的相关数据发送给终端设备601、602、603。
需要说明的是,本公开实施例所提供的视频边框检测方法可以由终端设备执行,相应地,视频边框检测装置可以设置在终端设备601、602、603中。此外,本公开实施例所提供的视频边框检测方法还可以由服务器605执行,相应地,视频边框检测装置可以设置于服务器605中。
应该理解,图6中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如图6中的终端设备或服务器)的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperTextTransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取待检测视频的至少两个视频帧;融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待检测视频的至少两个视频帧的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (11)

1.一种视频边框检测方法,其特征在于,包括:
获取待检测视频的至少两个视频帧;
融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述特征融合图生成所述待检测视频的边框信息,包括以下至少一项:
提取特征融合图在第一方向的特征得到第一方向特征信息,以及根据第一方向特征信息确定第一方向的边框信息;
提取特征融合图在第二方向的特征得到第二方向特征信息,以及根据第二方向特征信息确定第二方向的边框信息。
3.根据权利要求1所述的方法,其特征在于,边框信息,包括以下至少一项:边框位置信息和边框类型信息。
4.根据权利要求1所述的方法,其特征在于,所述融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息,包括:
将所述至少两个视频帧,导入预先建立的边框检测模型,得到所述边框信息,其中,所述边框检测模型基于初始神经网络和训练样本训练得到,训练样本包括视频数据和对应的标签,标签包括视频数据的边框信息。
5.根据权利要求4所述的方法,其特征在于,所述边框检测模型包括以下至少一项:特征融合层、方向特征提取层和全连接层;以及
所述将所述至少两个视频帧,导入预先建立的边框检测模型,得到所述边框信息,包括:
采用特征融合层处理所述至少两个视频帧,得到所述特征融合图;
采用所述方向特征提取层提取所述特征融合图中的至少一个方向的特征信息,得到至少一个方向特征信息;
采用所述全连接层处理方向特征信息,得到各个方向的边框信息。
6.根据权利要求5所述的方法,其特征在于,所述方向特征提取层包括以下至少一项:第一卷积核和第二卷积核;以及
所述采用所述方向特征提取层提取所述特征融合图中的至少一个方向的特征信息,得到至少一个方向特征信息,包括:
采用第一卷积核处理所述特征融合图,得到第一方向特征信息;
采用第二卷积核处理所述特征融合图,得到第二方向特征信息。
7.根据权利要求5所述的方法,其特征在于,所述全连接层包括第一全连接层;以及
所述采用所述全连接层处理方向特征信息,得到各个方向的边框信息,包括:
采用第一全连接层,处理所述第一方向特征信息,得到第一方向边框位置信息;
采用第一全连接层,处理所述第二方向特征信息,得到第二方向边框位置信息。
8.根据权利要求5所述的方法,其特征在于,所述全连接层包括第二全连接层;以及
所述采用所述全连接层处理方向特征信息,得到各个方向的边框信息,包括:
采用第二全连接层,处理所述第一方向特征信息,得到第一方向边框类型信息;
采用第二全连接层,处理所述第二方向特征信息,得到第二方向边框类型信息。
9.一种视频边框检测装置,其特征在于,包括:
获取单元,用于获取待检测视频的至少两个视频帧;
生成单元,用于融合所述至少两个视频帧的图像特征得到特征融合图,以及基于所述特征融合图生成所述待检测视频的边框信息。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
11.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
CN202110628897.2A 2021-06-04 2021-06-04 视频边框检测方法、装置和电子设备 Active CN113255812B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110628897.2A CN113255812B (zh) 2021-06-04 2021-06-04 视频边框检测方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110628897.2A CN113255812B (zh) 2021-06-04 2021-06-04 视频边框检测方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN113255812A true CN113255812A (zh) 2021-08-13
CN113255812B CN113255812B (zh) 2024-04-23

Family

ID=77186608

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110628897.2A Active CN113255812B (zh) 2021-06-04 2021-06-04 视频边框检测方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN113255812B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140723A (zh) * 2021-12-01 2022-03-04 北京有竹居网络技术有限公司 多媒体数据的识别方法、装置、可读介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110675425A (zh) * 2019-08-22 2020-01-10 腾讯科技(深圳)有限公司 一种视频边框识别方法、装置、设备及介质
CN111079741A (zh) * 2019-12-02 2020-04-28 腾讯科技(深圳)有限公司 图像边框位置检测方法、装置、电子设备及存储介质
CN111695540A (zh) * 2020-06-17 2020-09-22 北京字节跳动网络技术有限公司 视频边框识别方法及裁剪方法、装置、电子设备及介质
CN111739041A (zh) * 2020-05-18 2020-10-02 北京完美知识科技有限公司 图像边框的裁剪方法、装置及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110675425A (zh) * 2019-08-22 2020-01-10 腾讯科技(深圳)有限公司 一种视频边框识别方法、装置、设备及介质
CN111079741A (zh) * 2019-12-02 2020-04-28 腾讯科技(深圳)有限公司 图像边框位置检测方法、装置、电子设备及存储介质
CN111739041A (zh) * 2020-05-18 2020-10-02 北京完美知识科技有限公司 图像边框的裁剪方法、装置及设备
CN111695540A (zh) * 2020-06-17 2020-09-22 北京字节跳动网络技术有限公司 视频边框识别方法及裁剪方法、装置、电子设备及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140723A (zh) * 2021-12-01 2022-03-04 北京有竹居网络技术有限公司 多媒体数据的识别方法、装置、可读介质及电子设备

Also Published As

Publication number Publication date
CN113255812B (zh) 2024-04-23

Similar Documents

Publication Publication Date Title
CN112184738B (zh) 一种图像分割方法、装置、设备及存储介质
CN111399956A (zh) 应用于显示设备的内容展示方法、装置和电子设备
CN111831855B (zh) 用于匹配视频的方法、装置、电子设备和介质
CN110826567B (zh) 光学字符识别方法、装置、设备及存储介质
CN111784712B (zh) 图像处理方法、装置、设备和计算机可读介质
CN110991373A (zh) 图像处理方法、装置、电子设备及介质
CN112381717A (zh) 图像处理方法、模型训练方法、装置、介质及设备
CN113222983A (zh) 图像处理方法、装置、可读介质和电子设备
CN112330788A (zh) 图像处理方法、装置、可读介质及电子设备
US20240112299A1 (en) Video cropping method and apparatus, storage medium and electronic device
CN113420757B (zh) 文本审核方法、装置、电子设备和计算机可读介质
CN112990176A (zh) 书写质量评价方法、装置和电子设备
CN113255812B (zh) 视频边框检测方法、装置和电子设备
CN110852242A (zh) 基于多尺度网络的水印识别方法、装置、设备及存储介质
CN113191257B (zh) 笔顺检测方法、装置和电子设备
CN114612909A (zh) 字符识别方法、装置、可读介质及电子设备
CN114155545A (zh) 表格识别方法、装置、可读介质及电子设备
CN114004229A (zh) 文本识别方法、装置、可读介质及电子设备
CN114187557A (zh) 确定关键帧的方法、装置、可读介质及电子设备
CN112418233A (zh) 图像处理方法、装置、可读介质及电子设备
CN112308678A (zh) 基于图像识别的价格信息处理方法、装置、设备和介质
CN112270305A (zh) 卡片图像识别方法、装置和电子设备
CN111338827A (zh) 表格数据的粘贴方法、装置以及电子设备
CN113283115B (zh) 图像模型生成方法、装置和电子设备
CN112990349B (zh) 书写质量评价方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant