CN110956219B - 视频数据的处理方法、装置和电子系统 - Google Patents

视频数据的处理方法、装置和电子系统 Download PDF

Info

Publication number
CN110956219B
CN110956219B CN201911262605.7A CN201911262605A CN110956219B CN 110956219 B CN110956219 B CN 110956219B CN 201911262605 A CN201911262605 A CN 201911262605A CN 110956219 B CN110956219 B CN 110956219B
Authority
CN
China
Prior art keywords
frame
mask
common
region
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911262605.7A
Other languages
English (en)
Other versions
CN110956219A (zh
Inventor
衡稳
周舒畅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aixin Yuanzhi Semiconductor Co ltd
Original Assignee
Aixin Yuanzhi Semiconductor Ningbo Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aixin Yuanzhi Semiconductor Ningbo Co ltd filed Critical Aixin Yuanzhi Semiconductor Ningbo Co ltd
Priority to CN201911262605.7A priority Critical patent/CN110956219B/zh
Publication of CN110956219A publication Critical patent/CN110956219A/zh
Application granted granted Critical
Publication of CN110956219B publication Critical patent/CN110956219B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Abstract

本发明提供了一种视频数据的处理方法、装置和电子系统;该方法包括:将目标视频划分为关键帧和普通帧;对于关键帧,将关键帧输入任务模型,输出关键帧的计算结果;对于普通帧,获取普通帧与参考关键帧之间的掩膜,其中,掩膜具有前景运动区域和背景静止区域;参考关键帧为与普通帧最近的关键帧;根据掩膜的前景运动区域确定普通帧对应的特征区域;根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。该方法中,没有将普通特征全部输入任务模型,而只是将特征区域输入任务模型,可以在保持卷积计算效果不下降的基础上,减少神经网络的计算量,降低数据带宽和功耗,实现实时计算。

Description

视频数据的处理方法、装置和电子系统
技术领域
本发明涉及视频数据处理技术领域,尤其是涉及一种视频数据的处理方法、装置和电子系统。
背景技术
视频数据是在IoT(Internet of Things,物联网)场景中非常常见的数据形式。目前基于神经网络的对视频数据进行物体检测、语义分割、视频降噪等任务,通常是将视频看成一个图片集,进而对视频每一帧进行单独地处理。
相关技术中,通常是将视频的每一帧作为一个图片,将这些图片全部输入卷积神经网络进行计算。对于高分辨率的视频而言帧数较高,需要巨大的计算量。并且,视频数据具有很大的时间空间冗余性。在相机不发生运动的情况下,一段时间内的若干帧画面可能会有大面积的内容是相同的。因此,如果将视频每一帧都输入神经网络进行计算,意味着会有很大的计算力浪费,以及占用较大的数据带宽,会造成功耗增加、散热困难,难以实现实时计算等问题。
发明内容
有鉴于此,本发明的目的在于提供一种视频数据的处理方法、装置和电子系统,以减少神经网络的计算量,降低数据带宽和功耗,实现实时计算。
第一方面,本发明实施例提供了一种视频数据的处理方法,方法包括:将目标视频划分为关键帧和普通帧;对于关键帧,将关键帧输入任务模型,输出关键帧的计算结果;对于普通帧,获取普通帧与参考关键帧之间的掩膜,其中,掩膜具有前景运动区域和背景静止区域;参考关键帧为与普通帧最近的关键帧;根据掩膜的前景运动区域确定普通帧对应的特征区域;根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。
在本发明较佳的实施例中,上述方法中的任务模型包括多个卷积层,根据关键帧、特征区域和任务模型进行卷积处理包括:对于任务模型中的第L+1层卷积层,执行:获取输入信息;输入信息包括:第L层卷积层输出的关键帧对应的关键特征和普通帧对应的普通特征;其中,第一层卷积层的输入信息中的关键特征为关键帧,普通特征为普通帧;对第L层卷积层对应的关键特征进行卷积,输出第L+1层卷积层对应的关键特征;对第L层卷积层对应的普通特征的特征区域进行卷积操作,得到第L+1层卷积层对应的局部特征;特征区域通过掩膜选取;将第L+1层卷积层对应的局部特征和第L+1层卷积层对应的关键特征进行融合,输出第L+1层卷积层对应的普通特征。
在本发明较佳的实施例中,上述掩膜中为1的区域为前景运动区域,掩膜中为0的区域为背景静止区域;通过掩膜选取第L层卷积层对应的普通帧的特征区域的步骤,包括:将普通帧中差异区域对应的特征作为特征区域;其中,差异区域为掩膜中为1的区域。
在本发明较佳的实施例中,上述将第L+1层卷积层对应的局部特征和第L+1层卷积层对应的关键特征进行融合,输出第L+1层卷积层对应的普通特征的步骤,包括:将第L+1层卷积层对应的关键特征中的局部区域对应的特征替换为第L+1层卷积层对应的局部特征;其中,局部区域为第L+1层卷积层对应的局部特征对应的区域。
在本发明较佳的实施例中,上述目标视频的第一个关键帧为初始视频帧,其余关键帧为与相邻的前一个关键帧的具有差异的区域的比例大于预设阈值的视频帧,除关键帧之外的视频帧为普通帧。
在本发明较佳的实施例中,上述对于普通帧,获取普通帧与参考关键帧之间的掩膜的步骤,包括:获取普通帧和与普通帧对应的参考关键帧;将普通帧分为多个窗口;对于每个窗口,计算窗口中各个区域与参考关键帧的对应区域的残差的和;如果残差的和大于预设的残差阈值,将窗口的每个区域置为1;如果残差的和不大于残差阈值,将窗口的每个区域置为0。
在本发明较佳的实施例中,上述对于普通帧,获取普通帧与参考关键帧之间的掩膜的步骤,包括:获取普通帧和与普通帧对应的参考关键帧;将普通帧和参考关键帧输入预先设定的掩膜预测网络,输出普通帧和参考关键帧对应的掩膜值;将掩膜预测网络输出的普通帧和参考关键帧对应的掩膜值中,大于预设的掩膜阈值的区域置为1,不大于掩膜阈值的区域置为0,得到掩膜。
在本发明较佳的实施例中,上述将普通帧和参考关键帧输入预先设定的掩膜预测网络,输出普通帧和参考关键帧对应的掩膜值的步骤,包括:下采样普通帧和参考关键帧;将下采样后的普通帧和参考关键帧输入掩膜预测网络,输出下采样掩膜值;上采样下采样掩膜值,得到普通帧和参考关键帧对应的掩膜值;其中,下采样和上采样的倍数相同。
第二方面,本发明实施例还提供一种视频数据的处理装置,装置包括:目标视频划分模块,用于将目标视频划分为关键帧和普通帧;关键帧计算模块,用于对于关键帧,将关键帧输入任务模型,输出关键帧的计算结果;掩膜获取模块,用于对于普通帧,获取普通帧与参考关键帧之间的掩膜,其中,掩膜具有前景运动区域和背景静止区域;参考关键帧为与普通帧最近的关键帧;特征区域确定模块,用于根据掩膜的前景运动区域确定普通帧对应的特征区域;普通帧计算模块,用于根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。
第三方面,本发明实施例还提供一种电子系统,电子系统包括:视频采集设备、处理设备和存储装置;视频采集设备,用于获取目标视频;存储装置上存储有计算机程序,计算机程序在被处理设备运行时执行如上述视频数据的处理方法。
第四方面,本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理设备运行时执行如上述视频数据的处理方法的步骤。
本发明实施例带来了以下有益效果:
本发明实施例提供了一种视频数据的处理方法、装置和电子系统,将目标视频划分为关键帧和普通帧;其中,对于关键帧直接输入任务模型,输出关键帧的计算结果,对于普通帧,则根据掩膜确定普通帧对应的特征区域,根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。该方式中,没有将普通特征全部输入任务模型,而只是将特征区域输入任务模型,可以在保持卷积计算效果不下降的基础上,减少神经网络的计算量,降低数据带宽和功耗,实现实时计算。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种电子系统的结构示意图;
图2为本发明实施例提供的一种视频数据的处理方法的流程图;
图3为本发明实施例提供的一种第L+1层卷积层进行卷积的流程图;
图4为本发明实施例提供的一种第L+1层卷积层进行卷积的示意图;
图5为本发明实施例提供的另一种视频数据的处理方法的流程图;
图6为本发明实施例提供的一种掩膜预测网络输出掩膜的方法示意图;
图7为本发明实施例提供的一种视频数据的处理装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了减少神经网络的计算量,降低数据带宽和功耗,实现实时计算,本发明实施例提供的一种视频数据的处理方法、装置和电子系统,该技术可以应用于服务器、计算机、相机、手机、平板电脑、车辆中控设备等多种设备中,该技术可采用相应的软件和硬件实现,以下对本发明实施例进行详细介绍。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种视频数据的处理方法进行详细介绍。
实施例一:
首先,参照图1来描述用于实现本发明实施例的基于图像统计目标对象的方法、装置和电子系统的示例电子系统100。
如图1所示的一种电子系统的结构示意图,电子系统100包括一个或多个处理设备102、一个或多个存储装置104、输入装置106、输出装置108以及一个或多个视频采集设备110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子系统100的组件和结构只是示例性的,而非限制性的,根据需要,电子系统也可以具有其他组件和结构。
处理设备102可以为智能终端,或者是包含中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元的设备,可以对电子系统100中的其它组件的数据进行处理,还可以控制电子系统100中的其它组件以执行目标对象统计的功能。
存储装置104可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序指令,处理设备102可以运行程序指令,以实现下文的本发明实施例中(由处理设备实现)的客户端功能以及/或者其它期望的功能。在计算机可读存储介质中还可以存储各种应用程序和各种数据,例如应用程序使用和/或产生的各种数据等。
输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
视频采集设备110可以采集目标视频,并且将采集到的目标视频存储在存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的基于图像统计目标对象的方法、装置和电子系统中的各器件可以集成设置,也可以分散设置,诸如将处理设备102、存储装置104、输入装置106和输出装置108集成设置于一体,而将视频采集设备110设置于可以采集到图片的指定位置。当上述电子系统中的各器件集成设置时,该电子系统可以被实现为诸如相机、智能手机、平板电脑、计算机、车载终端等智能终端。
实施例二:
本实施例提供了一种视频数据的处理方法,该方法对传统的进行卷积计算的任务模型进行了改进,如图2所示的一种视频数据的处理方法的流程图,该视频数据的处理方法包括如下步骤:
步骤S202,将目标视频划分为关键帧和普通帧。
目标视频是指用于进行卷积计算的视频,目标视频的格式没有限制,只要能从目标视频中提取不同的视频帧即可。目标视频包括了若干的图像,每一个图像都是一个视频帧,将这些视频帧划分为关键帧和普通帧。
首先,将目标视频的初始视频帧划分为关键帧,而后确定其余的关键帧。每一个关键帧都要与上一个关键帧存在一定的不同,即每一个关键帧都需要续前一个关键帧的之间具有差异的区域的比例大于预设阈值。例如,预设阈值为70%,则需要第N个关键帧,与第N-1个关键帧的之间具有差异的区域的比例大于70%。然后将目标视频中除关键帧之外的视频帧划分为普通帧。
划分后的目标视频,第一个关键帧为初始视频帧,其余关键帧为与相邻的前一个关键帧的具有差异的区域的比例大于预设阈值的视频帧,除关键帧之外的视频帧为普通帧。
步骤S204,对于关键帧,将关键帧输入任务模型,输出关键帧的计算结果。
将目标视频划分为关键帧和普通帧后,对于关键帧和普通帧采用不同的方式输入任务模型。如果一个视频帧为关键帧,需要将该视频帧直接输入任务模型中,由任务模型对该关键帧进行卷积运算,得到该关键帧的计算结果。
步骤S206,对于普通帧,获取普通帧与参考关键帧之间的掩膜,其中,掩膜具有前景运动区域和背景静止区域;参考关键帧为与普通帧最近的关键帧。
如果一个视频帧为普通帧,则不需要讲过该普通帧全部输入任务模型中。首先,获得与该普通帧最近的关键帧(即参考关键帧),确定参考关键帧和普通帧之间的掩膜,掩膜为一个二值化的矩阵,该掩膜中为1的区域则表示普通帧在该区域与其对应的参考关键帧不同,该掩膜中为0的区域则表示普通帧在该区域与其对应的参考关键帧相同。掩膜中为1的区域就是前景运动区域,掩膜中为0的区域就是背景静止区域。关于参考关键帧,对于在线(online)检测,可以只获取是普通帧的前一个关键帧作为参考关键帧;对于对实现要求不高的场景,参考关键帧可以是普通帧的前一个关键帧,也可以是普通帧的后一个关键帧。
步骤S208,根据掩膜的前景运动区域确定普通帧对应的特征区域。
获得掩膜后,就可以确定普通帧对应的特征区域,特征区域是指普通帧中,与掩膜的前景运动区域相对应的区域,该区域相当于存在运动变化的区域。
步骤S210,根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。
将特征区域输入任务模型进行卷积计算,普通帧中除了特征区域以外的其余区域不输入任务模型进行计算,可以节约卷积神经网络的计算量。将特征区域输入任务模型的计算结果与参考关键帧结合,就可以得到普通帧的计算结果。
本发明实施例提供了一种视频数据的处理方法,将目标视频划分为关键帧和普通帧;其中,对于关键帧直接输入任务模型,输出关键帧的计算结果,对于普通帧,则根据掩膜确定普通帧对应的特征区域,根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。该方式中,没有将普通特征全部输入任务模型,而只是将与前景运动区域对应的特征区域输入任务模型,针对发生变化的差异区域进行处理;可以在保持卷积计算效果不下降的基础上,减少神经网络的计算量,降低数据带宽和功耗,实现实时计算。
实施例三:
本实施例提供了另一种视频数据的处理方法,该方法对传统的进行卷积计算的任务模型进行了改进,实施例重点描述第L+1层卷积层进行卷积的具体过程。在本实施例中,任务模型包括多个卷积层,通过卷积层对视频数据进行卷积计算,如图3所示的一种第L+1层卷积层进行卷积的流程图,该对于第L+1层卷积层进行卷积的方法包括如下步骤:
步骤S302,获取输入信息;输入信息包括:第L层卷积层输出的关键帧对应的关键特征和普通帧对应的普通特征;其中,第一层卷积层的输入信息中的关键特征为关键帧,普通特征为普通帧。
将目标视频划分为关键帧和普通帧后,按照时间顺序将目标视频的视频帧(关键帧和普通帧)输入任务模型,由任务模型中的卷积层依次进行卷积计算。根据关键帧、特征区域和任务模型进行卷积处理包括:对于任务模型中的第L+1层卷积层,执行如下的卷积运算:
由卷积层进行卷积计算前,需要首先获取输入信息,输入信息包括:第L层卷积层输出关键特征和普通特征;关键特征是指关键帧进行卷积计算后由第L层卷积层输出的特征;普通特征是指普通帧进行卷积计算后由第L层卷积层输出的特征。然而,如果第一层卷积层为第L+1层卷积层,就不存在上一层卷积层(即第L层卷积层),输入信息为关键帧和普通帧。
步骤S304,对第L层卷积层对应的关键特征进行卷积,输出第L+1层卷积层对应的关键特征。
将第L层卷积层输出的关键特征由当前卷积层进行卷积,得到当前卷积层对应的关键特征,输出当前卷积层对应的关键特征作为第L层卷积层的输入信息,由下一卷积层继续进行卷积,直到卷积完毕计算输出计算结果。需要说明的是,每一层卷积层可以仅对关键特征卷积一次,得到的当前卷积层对应的关键特征可以保存在内存中,这样,后续普通帧进行卷积时就可以复用当前卷积层对应的关键特征。
步骤S306,对第L层卷积层对应的普通特征的特征区域进行卷积操作,得到第L+1层卷积层对应的局部特征;特征区域通过掩膜选取。
普通特征的特征区域是指普通特征中与关键特征具有差异的区域,可以无需对全部普通特征进行卷积计算,只需要对普通特征的特征区域卷积计算即可。
这里需要说明的是,掩膜中为1的区域为前景运动区域,掩膜中为0的区域为背景静止区域;可以通过下述步骤选择特征区域:将普通帧中差异区域对应的特征作为特征区域;其中,差异区域为掩膜中为1的区域。
关键特征、普通特征与二者对应的掩膜的大小相同,而掩膜中为1的区域为关键特征和普通特征不同的区域。可以将普通特征中与掩膜中为1的区域相同位置的区域中的特征作为差异特征。需要注意的是,关键特征不需要实时进行计算得到,只需在处理关键帧时将其特征保存在DDR(Double Data Rate SDRAM,DDR内存)中,后续使用时可以随时读取。该方式中,通过掩膜的确定差异特征,可以保证差异特征是普通特征中与关键特征与不同的区域的特征。
将特征区域由第L+1层卷积层进行卷积,得到第L+1层卷积层对应的局部特征;局部特征是指对于普通帧中与特征区域相对应的区域的特征。
步骤S308,将第L+1层卷积层对应的局部特征和第L+1层卷积层对应的关键特征进行融合,输出第L+1层卷积层对应的普通特征。
将局部特征和第L+1层卷积层对应的关键特征进行融合,即可确定第L+1层卷积层对应的普通特征,输出第L+1层卷积层对应的普通特征作为第L+2层卷积层的输入信息,由第L+2层卷积层继续进行卷积,直到卷积完毕计算输出计算结果。
可以通过下述步骤融合关键特征和局部特征:将第L+1层卷积层对应的关键特征中的局部区域对应的特征替换为第L+1层卷积层对应的局部特征;其中,局部区域为第L+1层卷积层对应的局部特征对应的区域。
也就是说,将第L+1层卷积层对应的关键特征中与局部特征对应的区域的特征替换为局部特征即可得到当前卷积层对应的普通特征。参见图4所示的一种第L+1层卷积层进行卷积的示意图,图4中的掩膜为普通帧与参考关键帧之间的掩膜,由第L层卷积层对应的普通特征和关键特征确定,掩膜中的虚线框区域是指掩膜中为1的区域,掩膜对普通特征进行区域选择,将选择后的普通特征的虚线框区域中的特征进行卷积,得到局部特征,局部特征的位置为虚线框区域,而后将局部特征和第L+1层卷积层对应的关键特征融合,即可得到第L+1层卷积层对应的普通特征。
任务模型的计算结果是指对于按时序排列的每一个视频帧,通过任务模型的卷积层进行卷积计算得到的计算结果。对于目标视频的每一个视频帧,都会输出一个对应的计算结果。
该方式中,没有将普通特征全部进行卷积运算,而是部分进行卷积运算,可以在保持卷积计算效果不下降的基础上,减少神经网络的计算量,降低数据带宽和功耗,实现实时计算。
实施例四:
本实施例提供了另一种视频数据的处理方法,该方法在上述实施例的基础上实现;本实施例重点描述将目标视频划分为关键帧和普通帧的具体过程。如图5所示的另一种视频数据的处理方法的流程图,本实施例中的视频数据的处理方法包括如下步骤:
步骤S502,将目标视频的初始视频帧作为关键帧。
对于目标视频来说具有很大的时间空间冗余性,主要体现在,视频中前景运动区域可能很小,而背景通常是静止的,那么目标视频的视频帧很可能连续几帧的变化都不大,可以将这些变化不大的视频帧作为普通帧,将变化很大的视频帧作为关键帧。首先需要确定第一个关键帧作为其他关键帧的判定依据,因此,将目标视频的初始视频帧作为第一个关键帧。
步骤S504,基于目标视频的时序确定目标视频的每一视频帧与前一个关键帧的掩膜;掩膜为二值化矩阵;掩膜中为1的区域为视频帧与前一个关键帧不同的区域,掩膜中为0的区域为视频帧与前一个关键帧相同的区域。
本实施例采用计算掩膜的方法确定目标视频的某一个视频帧与其对应的上一个关键帧的不同区域的位置,也就是说,对一个视频帧和其对应的关键帧计算一个掩膜,掩膜为一个二值化的矩阵,该掩膜中为1的区域则表示视频帧在该区域与其对应的关键帧不同,该掩膜中为0的区域则表示视频帧在该区域与其对应的关键帧相同。
掩膜可以通过两种方法确定,分别是帧差法和网络预测法,帧差法直接通过计算得到视频帧和关键帧对应的掩膜,而网络预测发需要预先训练一个掩膜预测网络,通过掩膜预测网络计算得到视频帧和关键帧对应的掩膜。
首先说明帧差法,上述基于目标视频的时序确定目标视频的每一视频帧与参考关键帧的掩膜的步骤,可以通过步骤A1-步骤A5执行:
步骤A1,获取普通帧和与普通帧对应的参考关键帧。
将待确定掩膜的普通帧称作普通帧t,普通帧t之前的与普通帧t最接近的参考关键帧称为参考关键帧k,根据普通帧t和参考关键帧k确定一个掩膜,这里需要说明的是,t、k和掩膜的大小相同。
步骤A2,将普通帧分为多个窗口。
首先,可以将普通帧t分为多个大小相同或者不同的窗口。举例来说,对于相同窗口的情况,如果t的大小为1280×1280,可以将其分为多个32×32,或者64×64的窗口。
步骤A3,对于每个窗口,计算窗口中各个区域与参考关键帧的对应区域的残差的和。
本步骤中的参考关键帧k可以为普通帧t的前一个关键帧,对于每一个窗口需要计算窗口内每一个像素区域内与k的对应区域残差,残差可以通过下述公式计算:r=|t1-k1|,其中r为一个像素区域的残差,t1为该一个像素区域,k1为k与t1对应的像素区域。将一个窗口的所有的像素区的残差确定后求和,得到该窗口的残差的和。
步骤A4,如果残差的和大于预设的残差阈值,将窗口的每个区域置为1。
如果窗口的残差的和大于预设的残差阈值,则说明该窗口对应的区域在t和k上存在较大差别,则将该窗口的每个区域置为1。其中,残差阈值是人工预先设定的,对于普通的RGB(Red Green Blue,红绿蓝)图像的普通帧,残差阈值的取值范围可以是10-25。
步骤A5,如果残差的和不大于残差阈值,将窗口的每个区域置为0。
如果窗口的残差的和不大于预设的残差阈值,则说明该窗口对应的区域在t和k上的差别较小,因为可以忽视该差别,则将该窗口的每个区域置为0。
该方式中,通过残差法确定普通帧t和参考关键帧k对应的掩膜,残差法计算方法简单,并且可以很好地捕获物体的运动区域。然而,残差法对噪声等微小误差敏感,在噪声较多的场景下会导致窗口的残差的和较高,可能会出现所有窗口均置为1的情况,因此除了残差法之外,还可以通过网络预测法确定掩膜。对于网络预测法,上述基于目标视频的时序确定目标视频的每一视频帧与前一个关键帧的掩膜的步骤,可以通过步骤B1-步骤B3执行:
步骤B1,获取普通帧和与普通帧对应的参考关键帧。
与步骤A1相同,首先需要获取普通帧t和在普通帧之前的参考关键帧k,根据t和k计算对应的掩膜。
步骤B2,将普通帧和参考关键帧输入预先设定的掩膜预测网络,输出普通帧和参考关键帧对应的掩膜值。
掩膜预测网络可以根据输入的两个视频帧计算二者对应的掩膜,我们需要输出的掩膜是二值化的,因此需要掩膜预测网络的最后一层卷积层通过sigmoid函数进行激活,sigmoid函数可以将掩膜预测网络的输出值约束为0-1之间的连续值。
另外,掩膜预测网络的目标是使用时空稀疏性后任务模型的表现尽可能不变差的前提下,使掩膜尽可能稀疏。时空稀疏性是指对于视频数据大部分内容是相同的(冗余的),则有效信息是稀疏的将这种有效信息系数的特性称之为时空稀疏性。掩膜预测网络的损失函数可以包含两部分,一是使用掩膜后任务模型的损失函数,二是对掩膜稀疏性的约束。我们需要掩膜预测网络能够学会预测一种能尽可能稀疏,同时保证任务模型不掉点的掩膜。具体的掩膜预测网络的损失函数可以为下述函数:
Lmask net=Ltask+λ*‖mask‖1
其中,Lmask net为掩膜预测网络的损失值;Ltask为使用掩膜后任务模型的损失值;‖mask‖1表示对掩膜的L1反函数约束L1范数可以约束mask具有稀疏性,即部分位置被约束为0。λ表示稀疏性约束的权重,通过调节λ的大小可以达到使任务模型表现不变差的同时mask尽可能稀疏的效果,λ由人为设定,可以设定在0.1-0.2之间。
步骤B3,将掩膜预测网络输出的普通帧和参考关键帧对应的掩膜值中,大于预设的掩膜阈值的区域置为1,不大于掩膜阈值的区域置为0。
掩膜预测网络的最后一层卷积层通过sigmoid函数进行激活可以将输出值约束为0-1之间的连续值。之后需要将输出值二值化,也就是将大于预设的掩膜阈值的区域置为1,不大于掩膜阈值的区域置为0。一般来说,掩膜阈值可以0.5。
该方式中,通过预先设定的掩膜预测网络计算普通帧和参考关键帧对应的掩膜,对噪声等微小误差不敏感,可以在任务模型的表现不变差的基础上,得到较为稀疏的掩膜。
另外,在掩膜预测网络计算掩膜的过程中,需要保证掩膜中为1的区域具有一定的连通性,也就是掩膜中为1的区域尽可能是相连的,可以通过先对普通帧和参考关键帧下采样,然后对掩膜预测网络输出的掩膜上采样实现,具体通过步骤C1-步骤C3执行:
步骤C1,下采样普通帧和参考关键帧。
下采样是指将视频帧缩小,假设对M×M大小的视频帧下采样N倍,下采样后的视频帧的大小为(M/N)×(M/N)。
步骤C2,将下采样后的普通帧和参考关键帧输入掩膜预测网络,输出下采样掩膜值。
将下采样N倍后的普通帧和关键目标帧输入掩膜预测网络,输出的掩膜值同样下采样N倍,即如果对普通帧和关键目标的大小为M×M下采样N倍,输出的下采样掩膜值大小为(M/N)×(M/N)。
步骤C3,上采样下采样掩膜值,得到普通帧和参考关键帧对应的掩膜值;其中,下采样和上采样的倍数相同。
输出下采样掩膜值之后对该下采样掩膜值上采样,其中,下采样和上采样的倍数相同,可以得到M×M大小的掩膜值。参见用图6所示的一种掩膜预测网络输出掩膜的方法示意图;如图6所示,将普通帧和参考关键帧下采样N后输入掩膜预测网络,对掩膜预测网络的输出的掩膜值上采样N倍,就可以获得与普通帧和参考关键帧大小相同的掩膜值,之后再将掩膜输入到任务模型进行下一步的计算。如果上采样前的下采样掩膜值的一个像素为1,则上采样后的掩膜值的大小N×N的区域均为1,可以保证掩膜中为1的区域具有一定的连通性。
步骤S506,如果视频帧中掩膜为1的区域的比例大于预设的比例阈值,将视频帧作为关键帧。
比例阈值由人工设定,可以设定在0.7-0.8之间。如果视频帧中掩膜为1的区域的比例大于比例阈值,则说明该视频帧与前一个关键帧存在较大的不同,该视频帧可以作为一个关键帧。
步骤S508,如果视频帧中掩膜为1的区域的比例不大于比例阈值,将视频帧作为普通帧。
如果视频帧中掩膜为1的区域的比例不大于比例阈值,则说明该视频帧与前一个关键帧存在的不同较小,该视频帧可以作为一个普通帧。该方式中,通过计算掩膜,根据掩膜为1的区域的比例划分视频帧,可以合理地将目标视频的初始视频帧作为关键帧。
步骤S510,对于关键帧,将关键帧输入任务模型,输出关键帧的计算结果。
步骤S512,对于普通帧,获取普通帧与参考关键帧之间的掩膜,其中,掩膜具有前景运动区域和背景静止区域;参考关键帧为与普通帧最近的关键帧。
步骤S514,根据掩膜的前景运动区域确定普通帧对应的特征区域。
步骤S516,根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。
该方式中,通过掩膜的方法将视频帧分为关键帧和普通帧,对于关键帧需要将其输入神经网络进行计算,并保存计算结果。针对普通帧需要计算其和最近的上一个关键帧之间的掩膜,该掩膜为二值化矩阵,其大小和图像一致。通过掩膜的方法划分关键帧和普通帧,可以保证划分后的关键帧与前一个关键帧存在较大的差别。
本发明实施例提供的一种视频数据的处理方法,鉴于视频数据具有很高的时间空间稀疏性,可以利用这一特性来加速神经网络在视频数据上的计算,以达到节省数据带宽、降低功耗、提升视频数据处理速率的目的,同时保证相应任务的表现与逐帧处理的方式的表现相当。
实施例五:
本实施例提供了一种视频数据的处理装置,对应于上述方法实施例,参见图7所示的一种视频数据的处理装置的结构示意图,该装置中的任务模型包括多个卷积层,该装置包括:
目标视频划分模块71,用于将目标视频划分为关键帧和普通帧;
关键帧计算模块72,用于对于关键帧,将关键帧输入任务模型,输出关键帧的计算结果;
掩膜获取模块73,用于对于普通帧,获取普通帧与参考关键帧之间的掩膜,其中,掩膜具有前景运动区域和背景静止区域;参考关键帧为与普通帧最近的关键帧;
特征区域确定模块74,用于根据掩膜的前景运动区域确定普通帧对应的特征区域;
普通帧计算模块75,用于根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。
进一步地,上述任务模型包括多个卷积层,上述装置还包括卷积层计算模块,用于获取输入信息;输入信息包括:第L层卷积层输出的关键帧对应的关键特征和普通帧对应的普通特征;其中,第一层卷积层的输入信息中的关键特征为关键帧,普通特征为普通帧;对第L层卷积层对应的关键特征进行卷积,输出第L+1层卷积层对应的关键特征;对第L层卷积层对应的普通特征的特征区域进行卷积操作,得到第L+1层卷积层对应的局部特征;特征区域通过掩膜选取;将第L+1层卷积层对应的局部特征和第L+1层卷积层对应的关键特征进行融合,输出第L+1层卷积层对应的普通特征。
进一步地,上述掩膜中为1的区域为前景运动区域,上述掩膜中为0的区域为背景静止区域;上述卷积层计算模块,用于将普通帧中差异区域对应的特征作为特征区域;其中,差异区域为掩膜中为1的区域。
进一步地,上述卷积层计算模块,用于将第L+1层卷积层对应的关键特征中的局部区域对应的特征替换为第L+1层卷积层对应的局部特征;其中,局部区域为第L+1层卷积层对应的局部特征对应的区域。
进一步地,上述目标视频的第一个关键帧为初始视频帧,其余关键帧为与相邻的前一个关键帧的具有差异的区域的比例大于预设阈值的视频帧,除关键帧之外的视频帧为普通帧。
进一步地,上述掩膜获取模块,用于获取普通帧和与普通帧对应的参考关键帧;将普通帧分为多个窗口;对于每个窗口,计算窗口中各个区域与参考关键帧的对应区域的残差的和;如果残差的和大于预设的残差阈值,将窗口的每个区域置为1;如果残差的和不大于残差阈值,将窗口的每个区域置为0。
进一步地,上述掩膜获取模块,用于获取普通帧和与普通帧对应的参考关键帧;将普通帧和参考关键帧输入预先设定的掩膜预测网络,输出普通帧和参考关键帧对应的掩膜值;将掩膜预测网络输出的普通帧和参考关键帧对应的掩膜值中,大于预设的掩膜阈值的区域置为1,不大于掩膜阈值的区域置为0,得到掩膜。
进一步地,上述掩膜获取模块,用于下采样普通帧和参考关键帧;将下采样后的普通帧和参考关键帧输入掩膜预测网络,输出下采样掩膜值;上采样下采样掩膜值,得到普通帧和参考关键帧对应的掩膜值;其中,下采样和上采样的倍数相同。
本发明实施例提供了一种视频数据的处理装置,将目标视频划分为关键帧和普通帧;其中,对于关键帧直接输入任务模型,输出关键帧的计算结果,对于普通帧,则根据掩膜确定普通帧对应的特征区域,根据参考关键帧、特征区域和任务模型,获取普通帧的计算结果。该方式中,没有将普通特征全部输入任务模型,而只是将特征区域输入任务模型,可以在保持卷积计算效果不下降的基础上,减少神经网络的计算量,降低数据带宽和功耗,实现实时计算。
实施例五:
本发明实施例提供了一种电子系统,该电子系统包括:视频采集设备、处理设备和存储装置;视频采集设备,用于获取目标视频;存储装置上存储有计算机程序,计算机程序在被处理设备运行时执行如上述视频数据的处理方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的电子系统的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理设备运行时执行如上述视频数据的处理方法的步骤。
本发明实施例所提供的视频数据的处理方法、装置和电子系统的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和/或装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (11)

1.一种视频数据的处理方法,其特征在于,所述方法包括:
将目标视频划分为关键帧和普通帧;
对于所述关键帧,将所述关键帧输入任务模型,输出所述关键帧的计算结果;
对于所述普通帧,获取所述普通帧与参考关键帧之间的掩膜,其中,所述掩膜具有前景运动区域和背景静止区域;所述参考关键帧为与所述普通帧最近的关键帧;
根据所述掩膜的前景运动区域确定所述普通帧对应的特征区域;
根据所述参考关键帧、所述特征区域和所述任务模型,获取所述普通帧的计算结果。
2.根据权利要求1所述的方法,其特征在于,所述方法中的任务模型包括多个卷积层,根据所述关键帧、所述特征区域和所述任务模型进行卷积处理包括:对于所述任务模型中的第L+1层卷积层,执行:
获取输入信息;所述输入信息包括:第L层卷积层输出的关键帧对应的关键特征和普通帧对应的普通特征;其中,第一层卷积层的输入信息中的关键特征为关键帧,普通特征为普通帧;
对所述第L层卷积层对应的关键特征进行卷积,输出所述第L+1层卷积层对应的关键特征;
对第L层卷积层对应的普通特征的特征区域进行卷积操作,得到所述第L+1层卷积层对应的局部特征;所述特征区域通过所述掩膜选取;
将所述第L+1层卷积层对应的局部特征和所述第L+1层卷积层对应的关键特征进行融合,输出所述第L+1层卷积层对应的普通特征。
3.根据权利要求2所述的方法,其特征在于,所述掩膜中为1的区域为所述前景运动区域,所述掩膜中为0的区域为所述背景静止区域;
通过所述掩膜选取第L层卷积层对应的普通帧的特征区域的步骤,包括:
将所述普通帧中差异区域对应的特征作为所述特征区域;其中,所述差异区域为所述掩膜中为1的区域。
4.根据权利要求2所述的方法,其特征在于,将所述第L+1层卷积层对应的局部特征和所述第L+1层卷积层对应的关键特征进行融合,输出所述第L+1层卷积层对应的普通特征的步骤,包括:
将所述第L+1层卷积层对应的关键特征中的局部区域对应的特征替换为所述第L+1层卷积层对应的局部特征;其中,所述局部区域为所述第L+1层卷积层对应的局部特征对应的区域。
5.根据权利要求1所述的方法,其特征在于,所述目标视频的第一个关键帧为初始视频帧,其余关键帧为与相邻的前一个关键帧的具有差异的区域的比例大于预设阈值的视频帧,除所述关键帧之外的视频帧为所述普通帧。
6.根据权利要求1所述的方法,其特征在于,对于所述普通帧,获取所述普通帧与参考关键帧之间的掩膜的步骤,包括:
获取所述普通帧和与所述普通帧对应的参考关键帧;
将所述普通帧分为多个窗口;
对于每个窗口,计算窗口中各个区域与所述参考关键帧的对应区域的残差的和;
如果所述残差的和大于预设的残差阈值,将所述窗口的每个区域置为1;
如果所述残差的和不大于所述残差阈值,将所述窗口的每个区域置为0。
7.根据权利要求1所述的方法,其特征在于,对于所述普通帧,获取所述普通帧与参考关键帧之间的掩膜的步骤,包括:
获取所述普通帧和与所述普通帧对应的参考关键帧;
将所述普通帧和所述参考关键帧输入预先设定的掩膜预测网络,输出所述普通帧和所述参考关键帧对应的掩膜值;
将所述掩膜预测网络输出的所述普通帧和所述参考关键帧对应的掩膜值中,大于预设的掩膜阈值的区域置为1,不大于所述掩膜阈值的区域置为0,得到所述掩膜。
8.根据权利要求7所述的方法,其特征在于,将所述普通帧和所述参考关键帧输入预先设定的掩膜预测网络,输出所述普通帧和所述参考关键帧对应的掩膜值的步骤,包括:
下采样所述普通帧和所述参考关键帧;
将下采样后的所述普通帧和所述参考关键帧输入所述掩膜预测网络,输出下采样掩膜值;
上采样所述下采样掩膜值,得到所述普通帧和所述参考关键帧对应的掩膜值;其中,所述下采样和所述上采样的倍数相同。
9.一种视频数据的处理装置,其特征在于,所述装置包括:
目标视频划分模块,用于将目标视频划分为关键帧和普通帧;
关键帧计算模块,用于对于所述关键帧,将所述关键帧输入任务模型,输出所述关键帧的计算结果;
掩膜获取模块,用于对于所述普通帧,获取所述普通帧与参考关键帧之间的掩膜,其中,所述掩膜具有前景运动区域和背景静止区域;所述参考关键帧为与所述普通帧最近的关键帧;
特征区域确定模块,用于根据所述掩膜的前景运动区域确定所述普通帧对应的特征区域;
普通帧计算模块,用于根据所述参考关键帧、所述特征区域和所述任务模型,获取所述普通帧的计算结果。
10.一种电子系统,其特征在于,所述电子系统包括:视频采集设备、处理设备和存储装置;
所述视频采集设备,用于获取目标视频;
所述存储装置上存储有计算机程序,所述计算机程序在被所述处理设备运行时执行如权利要求1至8任一项所述的视频数据的处理方法。
11.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理设备运行时执行如权利要求1至8任一项所述的视频数据的处理方法的步骤。
CN201911262605.7A 2019-12-09 2019-12-09 视频数据的处理方法、装置和电子系统 Active CN110956219B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911262605.7A CN110956219B (zh) 2019-12-09 2019-12-09 视频数据的处理方法、装置和电子系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911262605.7A CN110956219B (zh) 2019-12-09 2019-12-09 视频数据的处理方法、装置和电子系统

Publications (2)

Publication Number Publication Date
CN110956219A CN110956219A (zh) 2020-04-03
CN110956219B true CN110956219B (zh) 2023-11-14

Family

ID=69980734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911262605.7A Active CN110956219B (zh) 2019-12-09 2019-12-09 视频数据的处理方法、装置和电子系统

Country Status (1)

Country Link
CN (1) CN110956219B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111629262B (zh) * 2020-05-08 2022-04-12 Oppo广东移动通信有限公司 视频图像处理方法和装置、电子设备及存储介质
CN111666863B (zh) * 2020-06-01 2023-04-18 广州市百果园信息技术有限公司 视频处理方法、装置、设备及存储介质
CN112364822B (zh) * 2020-11-30 2022-08-19 重庆电子工程职业学院 一种自动驾驶视频语义分割系统及方法
CN113542868A (zh) * 2021-05-26 2021-10-22 浙江大华技术股份有限公司 视频关键帧选取方法、装置、电子设备、存储介质
CN113596473B (zh) * 2021-07-28 2023-06-13 浙江大华技术股份有限公司 视频压缩方法及装置
CN114157895A (zh) * 2021-12-03 2022-03-08 北京达佳互联信息技术有限公司 视频处理方法、装置、电子设备及存储介质
CN114786039B (zh) * 2022-04-25 2024-03-26 海信电子科技(武汉)有限公司 服务器及视频预览图的制作方法
CN116249018B (zh) * 2023-05-11 2023-09-08 深圳比特微电子科技有限公司 图像的动态范围压缩方法、装置、电子设备和存储介质

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0414016A2 (de) * 1989-08-21 1991-02-27 ANT Nachrichtentechnik GmbH Verfahren zur Bildung eines Prädiktionsbildes
KR100390739B1 (ko) * 1995-10-26 2003-11-17 주식회사 팬택앤큐리텔 움직임보상이불가능한영역의추출장치및방법
KR20080090145A (ko) * 2007-04-04 2008-10-08 한동일 정지자막 영역의 움직임 보상 보간 장치 및 방법
JP2009087328A (ja) * 2007-09-10 2009-04-23 Advanced Telecommunication Research Institute International リップシンクアニメーション作成装置、コンピュータプログラム及び顔モデル生成装置
WO2009155688A1 (en) * 2008-06-23 2009-12-30 Craig Summers Method for seeing ordinary video in 3d on handheld media players without 3d glasses or lenticular optics
CN102088597A (zh) * 2009-12-04 2011-06-08 成都信息工程学院 动静结合估计视频视觉显著度的方法
CN103325112A (zh) * 2013-06-07 2013-09-25 中国民航大学 动态场景中运动目标快速检测方法
CN104050454A (zh) * 2014-06-24 2014-09-17 深圳先进技术研究院 一种运动手势轨迹获取方法及系统
CN105678748A (zh) * 2015-12-30 2016-06-15 清华大学 三维监控系统中基于三维重构的交互式标定方法和装置
CN105825170A (zh) * 2016-03-10 2016-08-03 浙江生辉照明有限公司 往复性手势的检测方法和装置
CN106897983A (zh) * 2016-12-30 2017-06-27 青岛海信电器股份有限公司 一种多帧图像集合的处理方法和图像处理装置
CN108242062A (zh) * 2017-12-27 2018-07-03 北京纵目安驰智能科技有限公司 基于深度特征流的目标跟踪方法、系统、终端及介质
CN108447022A (zh) * 2018-03-20 2018-08-24 北京天睿空间科技股份有限公司 基于单个固定摄像头图像序列的运动目标拼接方法
CN109416728A (zh) * 2016-09-30 2019-03-01 富士通株式会社 目标检测方法、装置以及计算机系统
CN109816011A (zh) * 2019-01-21 2019-05-28 厦门美图之家科技有限公司 生成人像分割模型的方法和视频关键帧提取方法
CN110032985A (zh) * 2019-04-22 2019-07-19 清华大学深圳研究生院 一种血细胞自动检测识别方法
CN110324617A (zh) * 2019-05-16 2019-10-11 西安万像电子科技有限公司 图像处理方法及装置
CN110381339A (zh) * 2019-08-07 2019-10-25 腾讯科技(深圳)有限公司 图片传输方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101237089B1 (ko) * 2011-10-12 2013-02-26 계명대학교 산학협력단 랜덤 포레스트 분류 기법을 이용한 산불연기 감지 방법
CN104954791B (zh) * 2015-07-01 2018-01-30 中国矿业大学 矿井无线分布式视频编码中的关键帧实时选取方法
CN105096386B (zh) * 2015-07-21 2017-11-17 中国民航大学 大范围复杂城市环境几何地图自动生成方法
US20170185841A1 (en) * 2015-12-29 2017-06-29 Le Holdings (Beijing) Co., Ltd. Method and electronic apparatus for identifying video characteristic
US11328169B2 (en) * 2017-09-26 2022-05-10 Nvidia Corporation Switchable propagation neural network

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0414016A2 (de) * 1989-08-21 1991-02-27 ANT Nachrichtentechnik GmbH Verfahren zur Bildung eines Prädiktionsbildes
KR100390739B1 (ko) * 1995-10-26 2003-11-17 주식회사 팬택앤큐리텔 움직임보상이불가능한영역의추출장치및방법
KR20080090145A (ko) * 2007-04-04 2008-10-08 한동일 정지자막 영역의 움직임 보상 보간 장치 및 방법
JP2009087328A (ja) * 2007-09-10 2009-04-23 Advanced Telecommunication Research Institute International リップシンクアニメーション作成装置、コンピュータプログラム及び顔モデル生成装置
WO2009155688A1 (en) * 2008-06-23 2009-12-30 Craig Summers Method for seeing ordinary video in 3d on handheld media players without 3d glasses or lenticular optics
CN102088597A (zh) * 2009-12-04 2011-06-08 成都信息工程学院 动静结合估计视频视觉显著度的方法
CN103325112A (zh) * 2013-06-07 2013-09-25 中国民航大学 动态场景中运动目标快速检测方法
CN104050454A (zh) * 2014-06-24 2014-09-17 深圳先进技术研究院 一种运动手势轨迹获取方法及系统
CN105678748A (zh) * 2015-12-30 2016-06-15 清华大学 三维监控系统中基于三维重构的交互式标定方法和装置
CN105825170A (zh) * 2016-03-10 2016-08-03 浙江生辉照明有限公司 往复性手势的检测方法和装置
CN109416728A (zh) * 2016-09-30 2019-03-01 富士通株式会社 目标检测方法、装置以及计算机系统
CN106897983A (zh) * 2016-12-30 2017-06-27 青岛海信电器股份有限公司 一种多帧图像集合的处理方法和图像处理装置
CN108242062A (zh) * 2017-12-27 2018-07-03 北京纵目安驰智能科技有限公司 基于深度特征流的目标跟踪方法、系统、终端及介质
CN108447022A (zh) * 2018-03-20 2018-08-24 北京天睿空间科技股份有限公司 基于单个固定摄像头图像序列的运动目标拼接方法
CN109816011A (zh) * 2019-01-21 2019-05-28 厦门美图之家科技有限公司 生成人像分割模型的方法和视频关键帧提取方法
CN110032985A (zh) * 2019-04-22 2019-07-19 清华大学深圳研究生院 一种血细胞自动检测识别方法
CN110324617A (zh) * 2019-05-16 2019-10-11 西安万像电子科技有限公司 图像处理方法及装置
CN110381339A (zh) * 2019-08-07 2019-10-25 腾讯科技(深圳)有限公司 图片传输方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于视频监控的中小群体异常行为检测;宋丹妮;王平;张晓华;李明昆;;计算机工程与设计(09);第2507-2514页 *
姬晓飞 ; 左鑫孟 ; .基于关键帧特征库统计特征的双人交互行为识别.计算机应用.2016,(第08期),第2287-2291页. *
牛晨 ; 林行刚 ; .视频分析技术在日志系统中的应用.微计算机信息.2007,(06),第4-6页. *

Also Published As

Publication number Publication date
CN110956219A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
CN110956219B (zh) 视频数据的处理方法、装置和电子系统
US11354785B2 (en) Image processing method and device, storage medium and electronic device
US10977802B2 (en) Motion assisted image segmentation
CN110324664B (zh) 一种基于神经网络的视频补帧方法及其模型的训练方法
US11449966B2 (en) Real-time video ultra resolution
US20200193609A1 (en) Motion-assisted image segmentation and object detection
KR101743861B1 (ko) 이미지 안정화를 위한 이미지 융합 방법
Rao et al. A Survey of Video Enhancement Techniques.
CN109993712B (zh) 图像处理模型的训练方法、图像处理方法及相关设备
WO2018089131A1 (en) Video frame synthesis with deep learning
CN109903315B (zh) 用于光流预测的方法、装置、设备以及可读存储介质
CN113076685A (zh) 图像重建模型的训练方法、图像重建方法及其装置
TW202037145A (zh) 視頻處理方法、裝置以及電腦儲存介質
CN113379613A (zh) 使用深度卷积网络的图像去噪系统和方法
CN112602088A (zh) 提高弱光图像的质量的方法、系统和计算机可读介质
CN113315884A (zh) 一种实时视频降噪方法、装置、终端及存储介质
US20240037802A1 (en) Configurable positions for auxiliary information input into a picture data processing neural network
WO2024041108A1 (zh) 图像矫正模型训练及图像矫正方法、装置和计算机设备
US20230298135A1 (en) Image super-resolution method using frequency domain features
Soh et al. Joint high dynamic range imaging and super-resolution from a single image
WO2024055458A1 (zh) 图像降噪处理方法、装置、设备、存储介质和程序产品
CN116071279A (zh) 图像处理方法、装置、计算机设备和存储介质
CN111311498B (zh) 图像鬼影剔除方法及装置、存储介质、终端
CN112584146B (zh) 帧间相似度评估方法和系统
CN114913196A (zh) 一种基于注意力机制稠密光流计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230807

Address after: Room 59, 17th Floor, Science and Technology Innovation Building, No. 777 Zhongguan West Road, Zhuangshi Street, Zhenhai District, Ningbo City, Zhejiang Province, 315200

Applicant after: Aixin Yuanzhi Semiconductor (Ningbo) Co.,Ltd.

Address before: 316-318, block a, Rongke Information Center, No.2, south academy of Sciences Road, Haidian District, Beijing

Applicant before: MEGVII (BEIJING) TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Room 59, 17th Floor, Science and Technology Innovation Building, No. 777 Zhongguan West Road, Zhuangshi Street, Ningbo City, Zhejiang Province, 315200

Patentee after: Aixin Yuanzhi Semiconductor Co.,Ltd.

Country or region after: China

Address before: Room 59, 17th Floor, Science and Technology Innovation Building, No. 777 Zhongguan West Road, Zhuangshi Street, Zhenhai District, Ningbo City, Zhejiang Province, 315200

Patentee before: Aixin Yuanzhi Semiconductor (Ningbo) Co.,Ltd.

Country or region before: China