CN111641828B - 视频处理方法及装置、存储介质和电子设备 - Google Patents

视频处理方法及装置、存储介质和电子设备 Download PDF

Info

Publication number
CN111641828B
CN111641828B CN202010415400.4A CN202010415400A CN111641828B CN 111641828 B CN111641828 B CN 111641828B CN 202010415400 A CN202010415400 A CN 202010415400A CN 111641828 B CN111641828 B CN 111641828B
Authority
CN
China
Prior art keywords
video
frame
frames
original video
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010415400.4A
Other languages
English (en)
Other versions
CN111641828A (zh
Inventor
张弓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010415400.4A priority Critical patent/CN111641828B/zh
Publication of CN111641828A publication Critical patent/CN111641828A/zh
Application granted granted Critical
Publication of CN111641828B publication Critical patent/CN111641828B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

本公开提供了一种视频处理方法、视频处理装置、计算机可读存储介质和电子设备,涉及视频处理技术领域。该视频处理方法包括:获取待处理视频,确定待处理视频中待进行插帧的原始视频帧序列;确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量;确定相邻两个原始视频帧之间的时间间隔;基于相邻两个原始视频帧之间待进行插帧的帧数量以及相邻两个原始视频帧之间的时间间隔,确定相邻两个原始视频帧之间待进行插帧的时间相位;按相邻两个原始视频帧之间待进行插帧的时间相位,在相邻两个原始视频帧之间进行插帧,以生成待处理视频经处理后为非固定帧率的第一目标视频。本公开可以对视频进行修改,以生成非固定帧率的视频。

Description

视频处理方法及装置、存储介质和电子设备
技术领域
本公开涉及视频处理技术领域,具体而言,涉及一种视频处理方法、视频处理装置、计算机可读存储介质和电子设备。
背景技术
随着视频技术以及互联网技术的发展,用户在个人计算机、手机、平板等电子设备上观看视频已经成为一种普遍的现象,各类视频的数量正在飞速增长。
用户对视频的需求越来越多样化,针对一些视频,需要进行修改后再播放。目前,由于视频修改方式的限制,会导致视频修改后播放效果不佳的问题。
发明内容
本公开提供一种视频处理方法、视频处理装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服视频修改效果不佳的问题。
根据本公开的第一方面,提供了一种视频处理方法,包括:获取待处理视频,确定待处理视频中待进行插帧的原始视频帧序列;确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量;确定相邻两个原始视频帧之间的时间间隔;基于相邻两个原始视频帧之间待进行插帧的帧数量以及相邻两个原始视频帧之间的时间间隔,确定相邻两个原始视频帧之间待进行插帧的时间相位;按相邻两个原始视频帧之间待进行插帧的时间相位,在相邻两个原始视频帧之间进行插帧,以生成待处理视频经处理后为非固定帧率的第一目标视频。
根据本公开的第二方面,提供了一种视频处理装置,包括:视频获取模块,用于获取待处理视频,确定待处理视频中待进行插帧的原始视频帧序列;帧数量确定模块,用于确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量;帧间隔确定模块,用于确定相邻两个原始视频帧之间的时间间隔;插帧相位确定模块,用于基于相邻两个原始视频帧之间待进行插帧的帧数量以及相邻两个原始视频帧之间的时间间隔,确定相邻两个原始视频帧之间待进行插帧的时间相位;视频生成模块,用于按相邻两个原始视频帧之间待进行插帧的时间相位,在相邻两个原始视频帧之间进行插帧,以生成待处理视频经处理后为非固定帧率的第一目标视频。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的视频处理方法。
根据本公开的第四方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的视频处理方法。
在本公开的一些实施例所提供的技术方案中,从待处理视频中确定待进行插帧的原始视频帧序列,基于原始视频帧序列中相邻两个原始视频帧之间的时间间隔和待进行插帧的帧数量,确定相邻两个原始视频帧之间待进行插帧的时间相位,按确定出的时间相位进行插帧,以生成非固定帧率的目标视频。本公开通过插帧的方式对视频进行了修改,得到非固定帧率的视频,可以满足动态帧率视频的播放需求,提高此类视频的播放效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的视频处理方案的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的视频处理方法的流程图;
图4示出了根据本公开实施例的进行视频帧抽取而得到的原始视频帧序列的示意图;
图5示出了本公开示例性实施例中一种基于运动估计确定运动矢量的示意图;
图6示出了本公开示例性实施例中一种对修正后的运动矢量的示意图;
图7示出了本公开示例性实施例中一种基于运动补偿进行插帧的示意图;
图8示意性示出了根据本公开的示例性实施方式的视频处理装置的方框图;
图9示意性示出了根据本公开的另一示例性实施方式的视频处理装置的方框图;
图10示意性示出了根据本公开的又一示例性实施方式的视频处理装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的视频处理方案的示例性系统架构的示意图。
如图1所示,系统架构1000可以包括终端设备1001、1002、1003中的一种或多种,网络1004和服务器1005。网络1004用以在终端设备1001、1002、1003和服务器1005之间提供通信链路的介质。网络1004可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器1005可以是多个服务器组成的服务器集群等。
用户可以使用终端设备1001、1002、1003通过网络1004与服务器1005交互,以接收或发送消息等。终端设备1001、1002、1003可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。另外,服务器1005可以是提供各种服务的服务器。
在基于服务器1005实现本公开视频处理方案的实施例中,首先,服务器1005可以获取由终端设备1001、1002、1003发送的视频,作为待处理视频,并确定待处理视频中待进行插帧的原始视频帧序列;接下来,服务器1005可以确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量以及相邻两个原始视频帧之间的时间间隔,并基于相邻两个原始视频帧之间待进行插帧的帧数量以及时间间隔确定该相邻两个原始视频帧之间待进行插帧的时间相位,按确定出的时间相位进行插帧,以得到非固定帧率的第一目标视频。随后,服务器1005还可以将第一目标视频发送给终端设备1001、1002、1003,进行播放或保存。
另外,还可以对第一目标视频进行抽帧操作,抽取出插帧效果不佳或视频连贯性存在问题的视频帧,并利用剩余的视频帧生成第二目标视频。
此外,还可以确定上述第一目标视频或第二目标视频的帧率信息,并将帧率信息与对应的目标视频进行绑定,以便后期显示或编码。
在基于终端设备1001、1002、1003实现本公开视频处理方案的实施例中,终端设备1001、1002、1003可以确定待处理视频中待进行插帧的原始视频帧序列,基于原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量以及时间间隔确定该相邻两个原始视频帧之间待进行插帧的时间相位,按确定出的时间相位进行插帧,以得到非固定帧率的第一目标视频。
类似地,终端设备1001、1002、1003还可以对第一目标视频进行抽帧操作,生成第二目标视频。以及,将帧率信息与视频进行绑定,以便后期显示或编码。
此外,本公开视频处理方案的实现过程还可以由终端设备1001、1002、1003和服务器1005共同实现。例如,终端设备1001、1002、1003可以获取待处理视频,并确定待处理视频中待进行插帧的原始视频帧序列,并将原始视频帧序列发送给服务器1005。服务器1005可以基于原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量以及时间间隔确定该相邻两个原始视频帧之间待进行插帧的时间相位,按确定出的时间相位进行插帧,以得到非固定帧率的第一目标视频。
虽然下面的描述以终端设备1001、1002、1003执行本公开视频处理过程为例进行说明,然而,如上所说明的,本公开对实现视频处理各步骤的设备类型不做限制。
本公开的视频处理方案应用广泛,例如,可以应用于电视、电影的后期制作过程,也可以应用于视频编辑、视频制作的过程。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。本公开所述的终端设备可以被配置为如图2所示的形式。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的视频处理方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器、压力传感器、陀螺仪传感器、气压传感器、磁传感器、加速度传感器、距离传感器、接近光传感器、指纹传感器、温度传感器、触摸传感器、环境光传感器及骨传导传感器等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
USB接口230是符合USB标准规范的接口,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口230可以用于连接充电器为电子设备200充电,也可以用于电子设备200与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
充电管理模块240用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
电子设备200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。
移动通信模块250可以提供应用在电子设备200上的包括2G/3G/4G/5G等无线通信的解决方案。
无线通信模块260可以提供应用在电子设备200上的包括无线局域网(WirelessLocal Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global Navigation Satellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(Near Field Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
电子设备200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
音频模块270用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块270还可以用于对音频信号编码和解码。在一些实施例中,音频模块270可以设置于处理器210中,或将音频模块270的部分功能模块设置于处理器210中。
扬声器271,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备200可以通过扬声器271收听音乐,或收听免提通话。受话器272,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备200接听电话或语音信息时,可以通过将受话器272靠近人耳接听语音。麦克风273,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风273发声,将声音信号输入到麦克风273。电子设备200可以设置至少一个麦克风273。耳机接口274用于连接有线耳机。
针对电子设备200中传感器模块280可以包括的传感器,深度传感器用于获取景物的深度信息。压力传感器用于感受压力信号,可以将压力信号转换成电信号。陀螺仪传感器可以用于确定电子设备200的运动姿态。气压传感器用于测量气压。磁传感器包括霍尔传感器。电子设备200可以利用磁传感器检测翻盖皮套的开合。加速度传感器可检测电子设备200在各个方向上(一般为三轴)加速度的大小。距离传感器用于测量距离。接近光传感器可以包括例如发光二极管(LED)和光检测器,例如光电二极管。指纹传感器用于采集指纹。温度传感器用于检测温度。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏290提供与触摸操作相关的视觉输出。环境光传感器用于感知环境光亮度。骨传导传感器可以获取振动信号。
按键294包括开机键,音量键等。按键294可以是机械按键。也可以是触摸式按键。马达293可以产生振动提示。马达293可以用于来电振动提示,也可以用于触摸振动反馈。指示器292可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口295用于连接SIM卡。电子设备200通过SIM卡和网络交互,实现通话以及数据通信等功能。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
图3示意性示出了本公开的示例性实施方式的视频处理方法的流程图。参考图3,所述视频处理方法可以包括以下步骤:
S30.获取待处理视频,确定待处理视频中待进行插帧的原始视频帧序列。
在本公开的示例性实施方式中,待处理视频可以是终端设备通过其摄像模组拍摄而得到的视频,也可以是从网络上下载的或由其他设备发送的视频,本公开对待处理视频的来源、大小以及视频内容的类型均不作限制。另外,还可以响应用户的视频选择操作,从包括多个视频的视频集合中确定出本公开所述的待处理视频。
根据本公开的一些实施例,在获取到待处理视频后,终端设备可以将待处理视频中的每一帧作为执行本公开方案的原始视频帧,也就是说,确定出的原始视频帧序列即是获取到的待处理视频本身。
根据本公开的另一些实施例,终端设备还可以对待处理视频进行视频帧提取,以得到本公开方案所述的原始视频帧,并将提取出的原始视频帧配置为原始视频帧序列。应当理解的是,原始视频帧序列中至少包括两个原始视频帧。另外,可以根据提取出原始视频帧在待处理视频中的位置(即,时间先后顺序),配置原始视频帧序列。
针对提取视频帧的方式,首先,终端设备可以确定待处理视频中各视频帧的运动剧烈程度。其中,视频帧的运动剧烈程度可以通过视频中包含对象或背景的运动数据进行表征,具体的,可以通过像素级的运动速度来表征,例如,视频帧A相对于其1s前的视频帧B,视频帧A中的一指定物体移动了100个像素。
随后,可以分别将视频帧的运动剧烈程度与预设运动程度范围进行比较,并从待处理视频中剔除运动剧烈程度超出预设运动程度范围的视频帧,利用待处理视频中保留的视频帧构建原始视频帧序列。
其中,预设运动程度范围可以是针对剔除运动剧烈的视频帧而设置的运动程度范围,在这种情况下,可以从待处理视频中剔除运动剧烈的视频帧,利用运动程度相对缓慢的视频帧构建出原始视频帧序列。仍以上例进行说明,视频帧A相对于其1s前的视频帧B,视频帧A中的一指定物体移动了100个像素,而预设运动程度范围表征相对于1s前的视频帧指定物体移动小于80个像素,此时,视频帧A将从待处理视频中剔除。
预设运动程度范围还可以是针对剔除运动缓慢的视频帧而设置的运动程度范围,在这种情况下,可以从待处理视频中剔除运动缓慢的视频帧,利用运动程度相对剧烈的视频帧构建出原始视频帧序列。例如,视频帧C相对于其1s前的视频帧D,视频帧C中一指定物体移动了30个像素,而预设运动程度范围表征相对于1s前的视频帧指定物体移动大于50个像素,此时,视频帧C将从待处理视频中剔除。
另外,预设运动程度范围还可以是剔除运动过于剧烈和过于缓慢的视频帧而设置的运动程度范围。例如,预设程度范围表征相对于1s前的视频帧指定物体移动大于50个像素且小于80个像素。如果视频帧E相对于其1s前的视频帧F,视频帧E中一指定物体移动了60个像素,则保留视频帧E,作为构建原始视频帧序列的原始视频帧。
图4示出了根据本公开实施例的进行视频帧抽取而得到的原始视频帧序列的示意图。参考图4,原始视频帧序列中可以包括原始视频帧1、原始视频帧2、原始视频帧3和原始视频帧4。可以看出,原始视频帧1、原始视频帧2、原始视频帧3和原始视频帧4相邻的两两之间的时间间隔可以存在差异,如,原始视频帧1与原始视频帧2之间的时间间隔小于原始视频帧2与原始视频帧3之间的时间间隔。另外,应当理解的是,图4仅是示例性的描述,原始视频帧序列中还可以包括其他提取出的原始视频帧。
S32.确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量。
首先,终端设备可以计算原始视频帧序列待进行插帧的帧数量,也就是说,计算针对原始视频帧序列的总的插帧数量。接下来,可以对原始视频帧序列待进行插帧的帧数量进行分配,以确定出序列中相邻两个原始视频帧之间待进行插帧的帧数量。
针对计算原始视频帧序列待进行插帧的帧数量的过程:
根据本公开的一些实施例,首先,可以获取待处理视频的帧率,并获取待处理视频处理后输出的视频的帧率,其中,处理后输出的视频的帧率通称可以是后续进行编码或显示所需的帧率。
随后,可以利用待处理视频处理后输出的视频的帧率以及待处理视频的帧率,计算插帧数量系数。例如,待进行显示的帧率为120Hz,如果原始视频帧序列对应的帧率为30Hz,则可以将待进行显示的帧率与原始视频帧序列对应的帧率的商,作为插帧数量系数,上例中为4。
然后,可以利用插帧数量系数以及原始视频帧序列中包含的视频帧数量,计算原始视频帧序列待进行插帧的帧数量。容易理解的是,在插帧数量系数为4的情况下,如果原始视频帧序列中包含的视频帧数量为100,则待输出的视频帧数量为400,在这种情况下,待进行插帧的帧数量为300。
根据本公开的另一些实施例,首先,可以确定待处理视频的运动剧烈程度。其中,待处理视频的运动剧烈程度可以包括待处理视频中前景对象的运动剧烈程度,以及/或者待处理视频中背景的变化程度。具体的,可以采用如上确定一个视频帧的运动剧烈程度的方式计算待处理视频中每一个视频帧的运动剧烈程度,再通过如加权或平均等方式得到整个待处理视频的运动剧烈程度。另外,考虑到算力的限制,还可以从待处理视频中随机抽取出一定数量的视频帧。来确定运动剧烈程度,再通过如加权或平均等方式得到整个待处理视频的运动剧烈程度。
随后,终端设备可以根据待处理视频的运动剧烈程度,计算原始视频帧序列待进行插帧的帧数量。其中,待处理视频的运动剧烈程度与原始视频帧序列待进行插帧的帧数量正相关,也就是说,运动剧烈程度越强,插帧的数量越多,可以预先构建该正相关的映射关系表,存储于终端设备,以便通过查表的方式确定出待进行插帧的帧数量。
根据本公开的又一些实施例,首先,可以确定原始视频帧序列的运动剧烈程度。其中,原始视频帧序列的运动程度可以包括原始视频帧序列中前景对象的运动剧烈程度,以及/或者原始视频帧序列中背景的变化程度。具体的,可以采用如上确定一个视频帧的运动剧烈程度的方式计算原始视频帧序列中每一个视频帧的运动剧烈程度,再通过如加权或平均等方式得到原始视频帧序列的运动剧烈程度。另外,考虑到算力的限制,还可以从原始视频帧序列中随机抽取出一定数量的视频帧。来确定运动剧烈程度,再通过如加权或平均等方式得到原始视频帧序列的运动剧烈程度。
随后,终端设备可以根据原始视频帧序列的运动剧烈程度,计算原始视频帧序列待进行插帧的帧数量。其中,原始视频帧序列的运动剧烈程度与原始视频帧序列待进行插帧的帧数量正相关,也就是说,运动剧烈程度越强,插帧的数量越多,可以预先构建该正相关的映射关系表,存储于终端设备,以便通过查表的方式确定出待进行插帧的帧数量。
在得到原始视频帧序列待进行插帧的帧数量的基础上,针对确定序列中相邻两个原始视频帧之间待进行插帧的帧数量的过程:
根据本公开的一些实施例,可以确定原始视频帧序列中各相邻两个原始视频帧之间的运动剧烈程度,并根据各相邻两个原始视频帧之间的运动剧烈程度,对原始视频帧序列待进行插帧的帧数量进行分配,以确定各相邻两个原始视频帧之间待进行插帧的帧数量。具体的,变化剧烈的两个原始视频帧之间插入的视频帧数量可以多于变化缓慢的两个原始视频帧之间插入的视频帧数量。另外,针对相邻两个原始视频帧之间几乎没有变化或变化较小的情况,也可以选择不进行插帧。
在这些实施例中,考虑到了运动剧烈的两个原始视频帧之间可能需要插入更多的视频帧来满足视频连贯性及用户视觉体验的需求。然而,就功耗而言,还可以采用相反的处理方法。
根据本公开的另一些实施例,考虑到功耗的约束,变化剧烈的两个原始视频帧之间插入的视频帧数量可以少于变化缓慢的两个原始视频帧之间插入的视频帧数量。
此外,结合功耗的约束以及用户视觉体验进行非均匀插帧的方式也应当属于本公开内容的构思。
根据本公开的又一些实施例,可以将均匀的插帧方式与上述利用运动剧烈程度进行可变帧率的插帧方式(非均匀插帧方式)相结合,以确定出相邻两个原始视频帧之间待进行插帧的帧数量。
具体的,原始视频帧序列中的多个相邻的两个视频帧可以包括第一相邻的两个视频帧和第二相邻的两个视频帧,例如,第一相邻的两个视频帧可以对应视频帧1和视频帧2,第二相邻的两个视频帧可以对应视频帧3和视频帧4。
首先,终端设备可以获取原始视频帧序列待进行插帧的帧数量M以及原始视频帧序列中视频帧的数量N,其中,M、N均为正整数且M>N>1。
接下来,可以将第一相邻的两个视频帧之间待进行插帧的帧数量设置为M/(N-1)。也就是说,视频帧1和视频帧2之间需要插入M/(N-1)个视频帧。
与此同时,可以确定第二相邻的两个视频帧之间的运动剧烈程度,从原始视频帧序列待进行插帧的帧数量M中分配与该运动剧烈程度相匹配的帧数量。也就是说,可以根据功耗和/或用户视觉体验的约束在视频帧3和视频帧4之间插入相应数量的视频帧。
应当理解的是,针对原始视频帧序列中每一个相邻的原始视频帧,均会执行上述确定待进行插帧的帧数量的过程,且每一个相邻的原始视频帧之间待进行插帧的帧数量可以相同,也可以不同。
S34.确定相邻两个原始视频帧之间的时间间隔。
本公开的方案对步骤S32与步骤S34的执行顺序不做限制,也可以在执行确定待进行插帧的帧数量的同时,确定相邻两个原始视频帧之间的时间间隔。
具体的,可以计算两个原始视频帧在待处理视频中的时间相位的差,以得到该时间间隔。
S36.基于相邻两个原始视频帧之间待进行插帧的帧数量以及相邻两个原始视频帧之间的时间间隔,确定相邻两个原始视频帧之间待进行插帧的时间相位。
在确定出相邻两个原始视频帧之间的时间间隔后,可以对其进行等相位划分,例如,划分成n个时间段,针对每一个时间段的节点,均可以插入视频帧。其中,可以将这n-1个时间段节点记为可选时间相位。
需要说明的是,针对不同的原始视频帧之间,等相位划分时,相位之间的时间间隔可以不同。
如果可选时间相位的数量与待进行插帧的帧数量相同,则针对可选时间相位中的每一个时间相位均进行插帧操作,也就是说,可选时间相位即是相邻两个原始视频帧之间待进行插帧的时间相位。
如果可选时间相位的数量大于待进行插帧的帧数量,则可以从可选时间相位中筛选出数量与待进行插帧的帧数量相同的目标时间相位,作为相邻两个原始视频帧之间待进行插帧的时间相位,并在随后基于该目标时间相位进行插帧。其中,可以由用户人为筛选出目标时间相位,本公开对筛选的规则不做限制。
另外,在针对目标时间相位进行插帧操作的情况下,对于可选时间相位中除目标时间相位之外的非目标时间相位而言,可以复制距该非目标时间相位最近的视频帧,并将复制的视频帧配置于非目标时间相位。其中,复制的视频帧可以是两个原始视频帧其中之一,也可以是新插入的视频帧。
S38.按相邻两个原始视频帧之间待进行插帧的时间相位,在相邻两个原始视频帧之间进行插帧,以生成待处理视频经处理后为非固定帧率的第一目标视频。
在确定出待进行插帧的时间相位的情况下,可以在相邻两个原始视频帧之间进行插帧。
针对插帧的过程,本公开可以采用的方法包括但不限于MEMC(Motion Estimateand Motion Compensation,运动估计和运动补偿)、光流法、神经网络等FRC(Frame RateConversion,频率转换)方法。下面以MEMC为例进行说明。
在将相邻两个原始视频帧记为第一原始视频帧和第二原始视频帧的情况下,首先,可以分别对第一原视频帧和第二原始视频帧进行图像分块操作,并确定第一原始视频帧中图像块相对于第二原始视频帧的运动矢量。参考图5,可以将第一原始视频帧中图像块相对于第二原始视频帧的运动矢量记为前向运动矢量。另外,还可以确定第二原始视频帧中图像块相对于第一原始视频帧的运动矢量,记为后向运动矢量。
另外,可以对前向运动矢量进行修正操作,其中,该修正操作包括滤波、加权等操作中的至少一种,以确定出每个图像块的前向运动矢量。针对利用后向运动矢量的实施例,过程类似,如图6所示。
接下来,可以根据第一原始视频帧中图像块相对于第二原始视频帧的运动矢量(即,前向运动矢量),并基于第一原始视频帧与第二原始视频帧之间待进行插帧的时间相位,确定待生成的插帧图像中与该图像块对应的插帧块相对于第一原始视频帧和第二原始视频帧的映射运动矢量,如图7所示。针对后向运动矢量的过程类似。
随后,利用映射运动矢量在第一原始视频帧和第二原始视频帧中查找对应的图像块,并对查找出的图像块进行插值操作,进而生成插帧图像,并将该插帧图像配置于对应的时间相位。
完成插帧操作后,可以生成与待处理视频帧对应的第一目标视频,在本公开的示例性实施方式中,第一目标视频为非固定帧率的视频,即第一目标视频为动态帧率视频。随后,可以将第一目标视频输出,以用于后续编码或播放。
本公开的示例性实施方式还可以包括对插帧后生成的第一目标视频执行帧抽取操作,以提高视频质量,优化视频播放效果。
首先,终端设备可以从第一目标视频中抽取至少一视频帧。其中,抽取出的视频帧可以是效果不佳的视频帧。
在本公开的一个实施例中,可以从第一目标视频帧中抽取出插帧可信度小于可信度阈值的视频帧。具体的,在利用MEMC进行插帧的过程中,进行MC(运动补偿)处理的过程中,算法会自动输出插帧可信度。或者。在利用卷积神经网络实现插帧的方案中,网络模型也可以输出插帧可信度。另外,本领域技术人员容易理解的是,在分块处理的过程中,当插帧可信度累计到一定程度时,则表明该插入的视频帧效果不佳,在这种情况下,可以从第一目标视频中抽取出该视频帧。
在本公开的另一个实施例中,可以从第一目标视频中抽取视频帧连贯性不一致的视频帧。例如,第一目标视频中包括原始视频帧1、原始视频帧2和原始视频帧3,以小球为例,如果原始视频帧2相对于原始视频帧1小球移动了2cm,原始视频帧3相对于原始视频帧2小球移动了5cm,而针对原始视频帧1与原始视频帧2之间,插入了3个视频帧,针对原始视频帧2与原始视频帧3之间,也插入了3个视频帧,这就导致原始视频帧1与原始视频帧2之间小球移动较慢而原始视频帧2与原始视频帧3之间小球移动较快的视觉效果。在这种情况下,可以从原始视频帧1与原始视频帧2之间插入的3个视频帧中,抽取出至少一个视频帧,以改善输出视频的连贯性。
在从第一目标视频中抽取出至少一视频帧后,接下来,可以利用抽取后第一目标视频剩余的视频帧生成第二目标视频。
在一些实施例中,终端设备可以确定出第一目标视频中抽取的视频帧的时间相位,复制时间相位与抽取到视频帧的时间相位相邻的视频帧,并将复制的视频帧配置于抽取的视频帧的时间相位,以使抽取后第二目标视频的总视频帧数量与上述生成第一目标视频所采用的视频处理过程所约束的视频帧数量一致。
为了便于后续播放或编码,本公开示例性实施方式的方案还可以包括帧率信息的输出。
具体的,可以获取上述第一目标视频的帧率信息,该帧率信息可以分时间段进行确定,其中,时间段的划分方式可以任意设定,最终得到每一秒的帧率,作为帧率信息。
随后,可以将该帧率信息与第一目标视频绑定并输出。
类似地,在输出的视频为第二目标视频的情况下,也可以将对应的帧率信息进行绑定后输出。
在本公开的一个应用场景中,当高刷新率显示器播放视频时,在原始视频的帧率低于显示器刷新率的情况下,可以采用上述视频处理方法对原始视频进行处理,生成与显示器刷新率一致的视频并进行播放。
在本公开的另一个应用场景中,当高刷新率显示器播放视频时,在原始视频的帧率低于显示器刷新率的情况下,可以采用上述视频处理方法对原始视频中运动较快或场景变化较剧烈的场景进行渐变方式的插帧处理,对原始视频中运动缓慢或场景变化较小的场景进行复制方式的插帧处理,生成与显示器刷新率一致的视频并进行播放。
在本公开的又一个应用场景中,在显示器播放视频时,对原始视频中长期不变的场景进行帧抽取和帧复制,重新生成视频后进行播放。在执行帧复制的情况下,显示器的液晶分子不再进行翻转,从而减少显示功耗。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种视频处理装置。
图8示意性示出了本公开的示例性实施方式的视频处理装置的方框图。参考图8,根据本公开的示例性实施方式的视频处理装置8可以包括视频获取模块81、帧数量确定模块83、帧间隔确定模块85、插帧相位确定模块87和视频生成模块89。
具体的,视频获取模块81可以用于获取待处理视频,确定待处理视频中待进行插帧的原始视频帧序列;帧数量确定模块83用于确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量;帧间隔确定模块85可以用于确定相邻两个原始视频帧之间的时间间隔;插帧相位确定模块87可以用于基于相邻两个原始视频帧之间待进行插帧的帧数量以及相邻两个原始视频帧之间的时间间隔,确定相邻两个原始视频帧之间待进行插帧的时间相位;视频生成模块89可以用于按相邻两个原始视频帧之间待进行插帧的时间相位,在相邻两个原始视频帧之间进行插帧,以生成待处理视频经处理后为非固定帧率的第一目标视频。
根据本公开的示例性实施例,视频获取模块81可以被配置为执行:确定待处理视频中各视频帧的运动剧烈程度;分别将各视频帧的运动剧烈程度与预设运动程度范围进行比较;从待处理视频中剔除运动剧烈程度超出预设运动程度范围的视频帧,利用保留的视频帧构建原始视频帧序列。
根据本公开的示例性实施例,帧数量确定模块83可以被配置为执行:计算原始视频帧序列待进行插帧的帧数量;对原始视频帧序列待进行插帧的帧数量进行分配,以确定原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量。
根据本公开的示例性实施例,帧数量确定模块83计算原始视频帧序列待进行插帧的帧数量的过程可以被配置为执行:获取待处理视频的帧率;获取待处理视频处理后输出的视频的帧率;利用待处理视频处理后输出的视频的帧率以及待处理视频的帧率,计算插帧数量系数;利用插帧数量系数和原始视频帧序列中包含的视频帧数量,计算原始视频帧序列待进行插帧的帧数量。
根据本公开的示例性实施例,帧数量确定模块83计算原始视频帧序列待进行插帧的帧数量的过程还可以被配置为执行:确定待处理视频的运动剧烈程度,待处理视频的运动剧烈程度包括待处理视频中前景对象的运动剧烈程度,以及/或者待处理视频中背景的变化程度;根据待处理视频的运动剧烈程度,计算原始视频帧序列待进行插帧的帧数量;其中,待处理视频的运动剧烈程度与原始视频帧序列待进行插帧的帧数量正相关。
根据本公开的示例性实施例,帧数量确定模块83可以被配置为执行:确定原始视频帧序列中各相邻两个原始视频帧之间的运动剧烈程度;根据各相邻两个原始视频帧之间的运动剧烈程度,对原始视频帧序列待进行插帧的帧数量进行分配,以确定各相邻两个原始视频帧之间待进行插帧的帧数量。
根据本公开的示例性实施例,相邻两个原始视频帧包括第一相邻的两个视频帧和第二相邻的两个视频帧。在这种情况下,帧数量确定模块83还可以被配置为执行:获取原始视频帧序列待进行插帧的帧数量M以及原始视频帧序列中视频帧的数量N,其中,M、N均为正整数且M>N>1;将第一相邻的两个视频帧之间待进行插帧的帧数量设置为M/(N-1);确定第二相邻的两个视频帧之间的运动剧烈程度,从原始视频帧序列待进行插帧的帧数量M中分配与第二相邻的两个视频帧之间的运动剧烈程度相匹配的帧数量。
根据本公开的示例性实施例,相邻两个原始视频帧包括第一原始视频帧和第二原始视频帧。在这种情况下,视频生成模块89可以被配置为执行:分别对第一原始视频帧和第二原始视频帧进行图像分块操作,并确定第一原始视频帧中图像块相对于第二原始视频帧的运动矢量;根据第一原始视频帧中图像块相对于第二原始视频帧的运动矢量,并基于第一原始视频帧与第二原始视频帧之间待进行插帧的时间相位,确定待生成的插帧图像中与图像块对应的插值块相对于第一原始视频帧和第二原始视频帧的映射运动矢量;根据映射运动矢量分别在第一原始视频帧和第二原始视频帧中查找对应的图像块;对查找出的图像块进行插值操作,结合插值操作的结果生成插帧图像,并将插帧图像配置于对应的时间相位。
根据本公开的示例性实施例,参考图9,相比于视频处理装置8,视频处理装置9还可以包括帧抽取模块91。
具体的,帧抽取模块91可以被配置为执行:从第一目标视频中抽取至少一视频帧;利用抽取后第一目标视频剩余的视频帧生成第二目标视频。
根据本公开的示例性实施例,帧抽取模块91从第一目标视频中抽取至少一视频帧的过程可以被配置为执行:从第一目标视频中抽取插帧可信度小于可信度阈值的视频帧。
根据本公开的示例性实施例,帧抽取模块91从第一目标视频中抽取至少一视频帧的过程还可以被配置为执行:从第一目标视频中抽取视频帧连贯性不一致的视频帧。
根据本公开的示例性实施例,帧抽取模块91利用抽取后第一目标视频剩余的视频帧生成第二目标视频的过程可以被配置为执行:确定第一目标视频中抽取的视频帧的时间相位;复制与抽取的视频帧的时间相位相邻的视频帧;将复制的视频帧配置于抽取的视频帧的时间相位。
根据本公开的示例性实施例,参考图10,相比于视频处理装置8,视频处理装置10还可以包括帧率输出模块101。
具体的,帧率输出模块101可以被配置为执行:获取第一目标视频的帧率信息;将第一目标视频与第一目标视频的帧率信息绑定并输出。
由于本公开实施方式的视频处理装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (15)

1.一种视频处理方法,其特征在于,包括:
获取待处理视频,确定所述待处理视频中待进行插帧的原始视频帧序列;
确定所述原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量;
确定所述相邻两个原始视频帧之间的时间间隔;
基于所述相邻两个原始视频帧之间待进行插帧的帧数量以及所述相邻两个原始视频帧之间的时间间隔,确定所述相邻两个原始视频帧之间待进行插帧的时间相位;
在所述相邻两个原始视频帧包括第一原始视频帧和第二原始视频帧的情况下,分别对所述第一原始视频帧和所述第二原始视频帧进行图像分块操作,并确定所述第一原始视频帧中图像块相对于所述第二原始视频帧的运动矢量;
根据所述第一原始视频帧中图像块相对于所述第二原始视频帧的运动矢量,并基于所述第一原始视频帧与所述第二原始视频帧之间待进行插帧的时间相位,确定待生成的插帧图像中与图像块对应的插值块相对于所述第一原始视频帧和所述第二原始视频帧的映射运动矢量;
根据所述映射运动矢量分别在所述第一原始视频帧和所述第二原始视频帧中查找对应的图像块;
对查找出的图像块进行插值操作,结合插值操作的结果生成所述插帧图像,并将所述插帧图像配置于对应的时间相位,以生成所述待处理视频经处理后为非固定帧率的第一目标视频。
2.根据权利要求1所述的视频处理方法,其特征在于,确定所述待处理视频中待进行插帧的原始视频帧序列包括:
确定所述待处理视频中各视频帧的运动剧烈程度;
分别将各所述视频帧的运动剧烈程度与预设运动程度范围进行比较;
从所述待处理视频中剔除运动剧烈程度超出所述预设运动程度范围的视频帧,利用保留的视频帧构建所述原始视频帧序列。
3.根据权利要求1所述的视频处理方法,其特征在于,确定所述原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量包括:
计算所述原始视频帧序列待进行插帧的帧数量;
对所述原始视频帧序列待进行插帧的帧数量进行分配,以确定所述原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量。
4.根据权利要求3所述的视频处理方法,其特征在于,计算所述原始视频帧序列待进行插帧的帧数量包括:
获取所述待处理视频的帧率;
获取所述待处理视频处理后输出的视频的帧率;
利用所述待处理视频处理后输出的视频的帧率以及所述待处理视频的帧率,计算插帧数量系数;
利用所述插帧数量系数和所述原始视频帧序列中包含的视频帧数量,计算所述原始视频帧序列待进行插帧的帧数量。
5.根据权利要求3所述的视频处理方法,其特征在于,计算所述原始视频帧序列待进行插帧的帧数量包括:
确定所述待处理视频的运动剧烈程度,所述待处理视频的运动剧烈程度包括所述待处理视频中前景对象的运动剧烈程度,以及/或者所述待处理视频中背景的变化程度;
根据所述待处理视频的运动剧烈程度,计算所述原始视频帧序列待进行插帧的帧数量;
其中,所述待处理视频的运动剧烈程度与所述原始视频帧序列待进行插帧的帧数量正相关。
6.根据权利要求3至5中任一项所述的视频处理方法,其特征在于,对所述原始视频帧序列待进行插帧的帧数量进行分配,以确定所述原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量,包括:
确定所述原始视频帧序列中各所述相邻两个原始视频帧之间的运动剧烈程度;
根据各所述相邻两个原始视频帧之间的运动剧烈程度,对所述原始视频帧序列待进行插帧的帧数量进行分配,以确定各所述相邻两个原始视频帧之间待进行插帧的帧数量。
7.根据权利要求3至5中任一项所述的视频处理方法,其特征在于,所述相邻两个原始视频帧包括第一相邻的两个视频帧和第二相邻的两个视频帧;其中,对所述原始视频帧序列待进行插帧的帧数量进行分配,以确定所述原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量,包括:
获取所述原始视频帧序列待进行插帧的帧数量M以及所述原始视频帧序列中视频帧的数量N,其中,M、N均为正整数且M>N>1;
将所述第一相邻的两个视频帧之间待进行插帧的帧数量设置为M/(N-1);
确定所述第二相邻的两个视频帧之间的运动剧烈程度,从所述原始视频帧序列待进行插帧的帧数量M中分配与所述第二相邻的两个视频帧之间的运动剧烈程度相匹配的帧数量。
8.根据权利要求1所述的视频处理方法,其特征在于,所述视频处理方法还包括:
从所述第一目标视频中抽取至少一视频帧;
利用抽取后所述第一目标视频剩余的视频帧生成第二目标视频。
9.根据权利要求8所述的视频处理方法,其特征在于,从所述第一目标视频中抽取至少一视频帧包括:
从所述第一目标视频中抽取插帧可信度小于可信度阈值的视频帧。
10.根据权利要求8所述的视频处理方法,其特征在于,从所述第一目标视频中抽取至少一视频帧包括:
从所述第一目标视频中抽取视频帧连贯性不一致的视频帧。
11.根据权利要求8至10中任一项所述的视频处理方法,其特征在于,利用抽取后所述第一目标视频剩余的视频帧生成第二目标视频包括:
确定所述第一目标视频中抽取的视频帧的时间相位;
复制与所述抽取的视频帧的时间相位相邻的视频帧;
将复制的视频帧配置于所述抽取的视频帧的时间相位。
12.根据权利要求1所述的视频处理方法,其特征在于,所述视频处理方法还包括:
获取所述第一目标视频的帧率信息;
将所述第一目标视频与所述第一目标视频的帧率信息绑定并输出。
13.一种视频处理装置,其特征在于,包括:
视频获取模块,用于获取待处理视频,确定所述待处理视频中待进行插帧的原始视频帧序列;
帧数量确定模块,用于确定所述原始视频帧序列中相邻两个原始视频帧之间待进行插帧的帧数量;
帧间隔确定模块,用于确定所述相邻两个原始视频帧之间的时间间隔;
插帧相位确定模块,用于基于所述相邻两个原始视频帧之间待进行插帧的帧数量以及所述相邻两个原始视频帧之间的时间间隔,确定所述相邻两个原始视频帧之间待进行插帧的时间相位;
视频生成模块,用于在所述相邻两个原始视频帧包括第一原始视频帧和第二原始视频帧的情况下,分别对所述第一原始视频帧和所述第二原始视频帧进行图像分块操作,确定所述第一原始视频帧中图像块相对于所述第二原始视频帧的运动矢量,根据所述第一原始视频帧中图像块相对于所述第二原始视频帧的运动矢量,基于所述第一原始视频帧与所述第二原始视频帧之间待进行插帧的时间相位,确定待生成的插帧图像中与图像块对应的插值块相对于所述第一原始视频帧和所述第二原始视频帧的映射运动矢量,根据所述映射运动矢量分别在所述第一原始视频帧和所述第二原始视频帧中查找对应的图像块,对查找出的图像块进行插值操作,结合插值操作的结果生成所述插帧图像,并将所述插帧图像配置于对应的时间相位,以生成所述待处理视频经处理后为非固定帧率的第一目标视频。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至12中任一项所述的视频处理方法。
15.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至12中任一项所述的视频处理方法。
CN202010415400.4A 2020-05-16 2020-05-16 视频处理方法及装置、存储介质和电子设备 Active CN111641828B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010415400.4A CN111641828B (zh) 2020-05-16 2020-05-16 视频处理方法及装置、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010415400.4A CN111641828B (zh) 2020-05-16 2020-05-16 视频处理方法及装置、存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN111641828A CN111641828A (zh) 2020-09-08
CN111641828B true CN111641828B (zh) 2022-03-18

Family

ID=72330902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010415400.4A Active CN111641828B (zh) 2020-05-16 2020-05-16 视频处理方法及装置、存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN111641828B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286126A (zh) * 2020-09-28 2022-04-05 阿里巴巴集团控股有限公司 视频处理方法及装置
CN112788337A (zh) * 2020-12-28 2021-05-11 深圳创维-Rgb电子有限公司 视频自动运动补偿方法、装置、设备及存储介质
CN112822511A (zh) * 2020-12-31 2021-05-18 深圳康佳电子科技有限公司 视频处理方法、系统、智能终端及计算机可读存储介质
CN112804526B (zh) * 2020-12-31 2022-11-11 紫光展锐(重庆)科技有限公司 图像数据存储方法、设备及存储介质、芯片、模组设备
CN113271494B (zh) * 2021-04-16 2023-04-11 维沃移动通信有限公司 视频帧处理方法、装置和电子设备
CN114584835B (zh) * 2022-02-10 2024-04-02 百果园技术(新加坡)有限公司 一种视频处理方法、装置、设备及存储介质
CN114554285A (zh) * 2022-02-25 2022-05-27 京东方科技集团股份有限公司 视频插帧处理方法、视频插帧处理装置和可读存储介质
CN114490671B (zh) * 2022-03-31 2022-07-29 北京华建云鼎科技股份公司 一种客户端同屏的数据同步系统
CN115278308B (zh) * 2022-07-28 2023-12-01 北京字跳网络技术有限公司 媒体流处理方法、装置、设备及存储介质
CN116260928B (zh) * 2023-05-15 2023-07-11 湖南马栏山视频先进技术研究院有限公司 一种基于智能插帧的视觉优化方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101543064B (zh) * 2007-02-20 2013-07-03 索尼株式会社 图像显示装置
US9247243B1 (en) * 2012-01-02 2016-01-26 Marvell International Ltd. Interpolated video error concealment
CN105828184A (zh) * 2015-08-31 2016-08-03 维沃移动通信有限公司 一种视频处理方法及移动终端
CN110267098B (zh) * 2019-06-28 2022-05-20 连尚(新昌)网络科技有限公司 一种视频处理方法及终端
CN111105766B (zh) * 2019-12-04 2022-08-26 昆山龙腾光电股份有限公司 频率转换方法、组件、时序处理装置及可读存储介质
CN110933497B (zh) * 2019-12-10 2022-03-22 Oppo广东移动通信有限公司 视频图像数据插帧处理方法及相关设备

Also Published As

Publication number Publication date
CN111641828A (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
CN111641828B (zh) 视频处理方法及装置、存储介质和电子设备
CN111641829B (zh) 视频处理方法及装置、系统、存储介质和电子设备
CN108401124B (zh) 视频录制的方法和装置
US11388403B2 (en) Video encoding method and apparatus, storage medium, and device
CN111784614A (zh) 图像去噪方法及装置、存储介质和电子设备
US10841697B1 (en) Method and apparatus for playing audio, playing device, and storage medium
CN111093108B (zh) 音画同步判断方法、装置、终端及计算机可读存储介质
CN108282612B (zh) 视频处理方法及计算机存储介质、终端
CN111445392B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN111641835A (zh) 视频处理方法、视频处理装置和电子设备
CN111586431B (zh) 进行直播处理的方法、装置、设备及存储介质
CN111161176B (zh) 图像处理方法及装置、存储介质和电子设备
CN111815666B (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN110933334B (zh) 视频降噪方法、装置、终端及存储介质
CN112929654B (zh) 检测音画同步的方法、装置、设备及存储介质
CN111445901A (zh) 音频数据获取方法、装置、电子设备及存储介质
CN111432245A (zh) 多媒体信息的播放控制方法、装置、设备及存储介质
CN111586444B (zh) 视频处理方法、装置、电子设备及存储介质
CN112954251A (zh) 视频处理方法、视频处理装置、存储介质与电子设备
CN107888975B (zh) 视频播放方法、装置及存储介质
CN112133319A (zh) 音频生成的方法、装置、设备及存储介质
CN111698262B (zh) 带宽确定方法、装置、终端及存储介质
CN113055713B (zh) 视频图像超分方法及装置、存储介质和电子设备
CN110460856B (zh) 视频编码方法、装置、编码设备及计算机可读存储介质
CN111696037B (zh) 深度图像处理方法及装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant