CN108683826A - 视频数据处理方法、装置、计算机设备和存储介质 - Google Patents

视频数据处理方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN108683826A
CN108683826A CN201810462123.5A CN201810462123A CN108683826A CN 108683826 A CN108683826 A CN 108683826A CN 201810462123 A CN201810462123 A CN 201810462123A CN 108683826 A CN108683826 A CN 108683826A
Authority
CN
China
Prior art keywords
video data
scene recognition
recognition result
data segment
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810462123.5A
Other languages
English (en)
Other versions
CN108683826B (zh
Inventor
李大龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810462123.5A priority Critical patent/CN108683826B/zh
Publication of CN108683826A publication Critical patent/CN108683826A/zh
Application granted granted Critical
Publication of CN108683826B publication Critical patent/CN108683826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本申请涉及一种视频数据处理方法、装置、计算机可读存储介质和计算机设备,所述方法包括:获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;建立场景识别结果与视频数据的关联关系;将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。本申请提供的方案可以提高视频播放图像质量。

Description

视频数据处理方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种视频数据处理方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,视频播放端为了改善较低分辨率、较低码率片源的图像质量,视频播放端中的播放器在视频图像解码后通常可以采取图像后处理技术对视频图像进行处理,常用的图像后处理技术如锐化、边缘增强、饱和度调整等。
然而,目前的视频图像处理技术通常由播放端自行采用预设的图像后处理技术进行图像后处理,针对图像内容、纹理特征连续变化的视频图像序列,容易造成视频播放图像质量差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高视频播放图像质量的视频数据处理方法、装置、计算机设备和存储介质。
一种视频数据处理方法,该方法包括:
获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
建立场景识别结果与视频数据的关联关系;
将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
一种视频数据处理系统,该系统包括:
服务器,用于获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
服务器,还用于建立场景识别结果与视频数据的关联关系,再将视频数据对应的视频编码数据和关联关系发送至播放终端;
播放终端,用于接收视频数据对应的视频编码数据和关联关系,再根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
一种视频数据处理装置,该装置包括:
视频数据获取模块,用于获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
关联关系建立模块,用于建立场景识别结果与视频数据的关联关系;
视频编码数据发送模块,用于将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行所述程序时实现以下步骤:
获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
建立场景识别结果与视频数据的关联关系;
将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
建立场景识别结果与视频数据的关联关系;
将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
上述视频数据处理方法、装置、计算机设备和存储介质,服务器获取视频数据,将视频数据输入到已训练的场景识别模型中,得到对应的场景识别结果,再建立场景识别结果与视频数据之间的关联关系,最后服务器将视频数据对应的视频编码数据和关联关系发送至播放终端。播放终端根据接收到的关联关系获取与视频数据对应的场景识别结果,再根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据,最终可通过播放终端上的客户端播放该目标播放视频数据。对视频数据进行场景识别得到对应的场景识别结果,再根据场景识别结果确定与场景识别结果匹配的图像处理方式,不同视频数据匹配不同的图像处理方式从而提高视频播放图像的质量,且编码端对视频数据进行场景识别得到对应的场景识别结果,再可根据场景识别结果直接确定对应的图像处理方式,不需要播放终端再自行采用预设的图像后处理技术进行图像后处理,进一步地减少播放终端的处理压力。
附图说明
图1为一个实施例中视频数据处理方法的应用环境图;
图2为一个实施例中视频数据处理方法的流程示意图;
图3为一个实施例中场景识别结果生成步骤的流程示意图;
图4为一个实施例中当前片段场景识别结果生成步骤的流程示意图;
图5为再一个实施例中视频数据处理方法的流程示意图;
图6为一个实施例中视频数据处理系统的结构框图;
图7为一个实施例中视频数据处理装置的结构框图;
图8为一个实施例中视频数据获取模块的结构框图;
图9为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中视频数据处理方法的应用环境图。参照图1,该视频数据处理方法应用于视频数据处理系统。该视频数据处理系统包括播放终端110和服务器120。播放终端110和服务器120通过网络连接。播放终端110具体可以是台式终端或移动终端,移动终端具体可以手机、平板电脑、笔记本电脑等中的至少一种。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。其中,播放终端110中可以安装有视频播放客户端或者播放终端110可以在系统中自带有视频播放应用,当播放终端110中可以安装有视频播放客户端时,则服务器120是该视频播放客户端对应的服务器,当播放终端110可以在系统中自带有视频播放应用时,则服务器120是该视频播放应用对应的服务器,其中视频播放客户端可以为腾讯视频播放客户端等等。
具体地,服务器120获取视频数据,将该视频数据输入已训练的场景识别模型得到对应的场景识别结果,再建立场景识别结果与视频数据的关联关系,最终服务器120将视频数据对应的视频编码数据和关联关系发送至播放终端110。播放终端110接收到视频数据对应的视频编码数据和关联关系后,根据关联关系获取与视频数据对应的场景识别结果,再根据场景识别结果获取与视频数据对应的图像处理方式,再根据图像处理方式对视频编码数据对应的解码图像进行图像处理,播放终端110最终得到目标播放视频数据,并进行播放该目标播放视频数据。
如图2所示,在一个实施例中,提供了一种视频数据处理方法。本实施例主要以该方法应用于上述图1中的服务器120来举例说明。参照图2,该视频数据处理方法具体包括如下步骤:
步骤202,获取视频数据,将视频数据输入已训练的场景识别模型,得到对应的场景识别结果。
其中,视频数据是时间轴上连续的图像序列,实质上视频数据是由一组组连续的图像构成的。视频数据可以是但不限于服务器自身缓存的未编码的视频数据,或者是服务器接收到的已编码的视频数据等等。在一个实施例中,若视频数据为服务器接收到的已编码的视频数据时,需先将已编码的视频数据进行解码后,再将解码后的视频数据输入到已训练的场景识别模型中。
场景概念可以自定义,具体可根据视频数据对应的视频图像中的图像特征来确定场景,或者可根据自身业务需求来确定场景,或者可根据视频数据的内容来确定场景等等。而场景识别模型是用于对视频数据进行场景识别的模型,场景识别结果是经过已训练的场景识别模型对输入的视频数据进行自动判定得到的识别结果。场景识别结果包括但不限于根据视频数据对应的视频图像中的图像特征来判定的简单纹理型或者复杂纹理型,或者根据视频数据的内容来判定的自然风光型或者人物写真型等等。
具体地,服务器获取视频数据,若该视频数据为服务器自身缓存的原始视频数据,即未进行编码的视频数据。服务器直接将获取到的视频数据输入至已训练好的场景识别模型中,已训练好的场景识别模型自动对输入的视频数据进行场景识别,得到与视频数据对应的场景识别结果。
若服务器获取到的视频数据为已编码的视频数据,首先,服务器对获取到的已编码视频数据进行解码,得到解码后的视频数据。然后,再将解码后的视频数据输入至已训练好的场景识别模型中,场景识别模型自动对输入的解码后的视频数据进行场景识别,最终得到对应的场景识别结果。
步骤204,建立场景识别结果与视频数据的关联关系。
具体地,服务器在得到与视频数据对应的场景识别结果后,需将场景识别结果与视频数据之间建立关联关系。其中,场景识别结果与视频数据之间可以是一一对应的关系,即一个视频数据对应一个场景识别结果,或者为了提高场景识别的精细粒度,可以先对视频数据进行分割,得到若干个视频数据片段,然后一个视频数据片段对应一个场景识别结果。而建立场景识别结果与视频数据之间的关联关系可以但不限于通过相关的多媒体描述文件来记载场景识别结果与视频数据之间的关联关系,其中多媒体描述文件具体的生成可以是但不限于先获取视频数据的相关存放地址,使用标签字段来表示与该视频数据对应的场景识别结果,然后再将视频数据的存放地址与对应的场景识别结果在多媒体描述文件中建立一一对应的映射关系,其中用来表示与该视频数据对应的场景识别结果的标签字段可以自定义,如使用标签字段EXTCATDESP来表示与该视频数据对应的场景识别结果,或者直接通过专门的列表结构来加载场景识别结果与视频数据的关联关系等等。其中,多媒体描述文件可以是但不限于播放列表文件m3u8文件、MP4视频文件格式文件mp4文件等等。如,多媒体描述文件为m3u8文件,获取视频数据的相关存放地址为:http://xxxxxxx.xxxxxx.com,而与该视频数据对应的场景识别结果为自然风光,使用标签EXTCATDESP字段来表示场景识别结果。最终,在多媒体描述文件m3u8文件中记载的场景识别结果与视频数据的关联关系的格式为:
#EXTCATDESP:自然风光
http://xxxxxxx.xxxxxx.com
步骤206,将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
其中,视频编码数据是对视频数据进行视频压缩编码后得到的编码数据。服务器先对视频数据进行视频压缩编码得到与视频数据对应的视频编码数据,然后再将视频数据对应的视频编码数据和建立的场景识别结果与视频数据的关联关系发送至播放终端。
由于可通过相关的多媒体描述文件来记载场景识别结果与视频数据之间的关联关系,因此服务器可将多媒体描述文件发送至播放终端。播放终端接收到多媒体描述文件后,根据多媒体描述文件中的关联关系获取与视频数据对应的场景识别结果,再根据场景识别结果获取与视频数据对应的图像处理方式,其中播放终端可预先存储场景识别结果与图像处理方式的匹配关系文件。其中,图像处理方式包括但不限于锐化处理、边缘增强处理、平滑处理等等。例如,场景识别结果与视频数据对应的图像处理方式的匹配关系文件可以是但不限于如表1所示:
表1
场景识别结果 图像处理方式
简单纹理型 锐化、边缘增强
复杂纹理型 去噪
自然风光型 锐化、增强对比度、提高饱和度
人物写真型 平滑、亮度提升
曝光不足型 暗部增强、动态范围扩展
曝光过度型 降低对比度
进一步地,播放终端在获取到与视频数据对应的图像处理方式后,先对视频编码数据进行解码,得到解码后的解码图像,然后再根据获取到的图像处理方式对解码图像进行对应的图像处理,得到目标播放视频数据。最后,播放终端的客户端可通过相关应用程序的相关界面进行播放该目标播放视频数据。
上述视频数据处理方法,服务器获取视频数据,将视频数据输入到已训练的场景识别模型中,得到对应的场景识别结果,再建立场景识别结果与视频数据之间的关联关系,最后服务器将视频数据对应的视频编码数据和关联关系发送至播放终端。播放终端根据接收到的关联关系获取与视频数据对应的场景识别结果,再根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据,最终可通过播放终端上的客户端播放该目标播放视频数据。对视频数据进行场景识别得到对应的场景识别结果,再根据场景识别结果确定与场景识别结果匹配的图像处理方式,不同视频数据匹配不同的图像处理方式从而提高视频播放图像的质量,且编码端对视频数据进行场景识别得到对应的场景识别结果,再可根据场景识别结果直接确定对应的图像处理方式,不需要播放终端再自行采用预设的图像后处理技术进行图像后处理,进一步地减少播放终端的处理压力。
在一个实施例中,如图3所示,获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果,包括:
步骤302,将视频数据进行分割得到与视频数据对应的多个视频数据片段。
具体地,在获取到视频数据后,需根据预设分割规则对视频数据进行分割得到对应的多个视频数据片段,其中预设分割规则可以自定义,自定义可以是但不限于根据固定的时间间隔进行分割,或者根据视频数据对应的解码信息进行分割,或者根据视频数据固定的大小进行分割等等。其中,根据视频数据对应的解码信息进行分割时,可以是以一个或多个图像视频组GOP(Group of Pictures,图像视频组)为单位进行分割。其中,图像视频组GOP是指两个关键帧I帧之间的视频图像组。
在一个实施例中,若预设自定义分割规则为根据视频数据对应的解码信息进行分割,说明该获取到的视频数据为已编码的视频数据,则服务器先对已编码的视频数据进行解码得到对应的解码信息,如I帧、B帧、P帧等等。其中,根据视频数据对应的解码信息为以一个图像视频组GOP为单位进行分割,如视频数据对应的解码信息为IBBPPIBBPPIPB,则根据预设分割规则对视频数据进行分割得到的三个视频数据片段为:IBBPP、IBBPP、IPB。
在一个实施例中,若预设自定义分割规则为根据固定的时间间隔进行分割,如固定的时间间隔为3s,则服务器对视频数据进行分割得到每个时间间隔都为3s的视频数据片段。
步骤304,获取当前视频数据片段。
步骤306,获取与当前视频数据片段对应的目标视频帧。
步骤308,将目标视频帧输入已训练的场景识别模型中,得到与当前视频数据片段对应的当前片段场景识别结果。
其中,当前视频数据片段是从分割得到的多个视频数据片段中按顺序或者随机选取的一个视频数据片段作为当前视频数据片段。视频数据片段其实也是时间轴上连续的图像序列,视频数据片段是由若干帧连续图像组成的。在获取到当前视频数据片段后,从当前视频数据片段根据预设选取规则获取与当前视频数据片段对应的目标视频帧。其中,预设选取规则可自定义,自定义可以是但不限于选取该当前视频数据片段中的第一帧为目标视频帧,或者选取该当前视频数据片段中的最后一帧为目标视频帧,或者选取该当前视频数据片段中的关键帧为目标视频帧,或者将该当前视频数据片段中预设数量视频帧进行计算处理得到目标视频帧等等,其中将当前视频数据片段中预设数量视频帧进行计算处理可以是但不限于将当前视频数据片段中预设数量视频帧进行叠加后取均值得到目标视频帧。
进一步地,在得到与当前视频数据片段对应的目标视频帧后,将目标视频帧输入到已训练的场景识别模型中,得到与当前视频数据片段对应的当前片段场景识别结果。其中,场景识别模型的输入数据可以是但不限于如上述的从视频数据片段中获取对应的目标视频帧,或者可以是直接将视频数据片段作为场景识别模型的输入数据从而得到对应的场景识别结果,或者也可以是视频数据片段中的符合场景检测的其他特征作为场景识别模型的输入数据等等。具体的场景识别模型的场景识别算法可根据需要自定义。
在一个实施例中,若预设选取规则自定义为选取该视频数据片段中的关键帧为目标视频帧,若该目标视频帧为多个时,则分别将多个目标视频帧输入到已训练的场景识别模型中,得到各个目标视频帧对应的场景识别结果。然后再根据一定的规则对各个目标视频帧对应的场景识别结果进行综合判定,最终得到与当前视频数据片段对应的当前片段场景识别结果。
在一个实施例中,若预设选取规则自定义为将该当前视频数据片段中预设数量视频帧叠加后取均值得到目标视频帧,服务器先获取该当前视频数据片段中的预设数量视频帧,再对获取到的预设数量视频帧进行均值计算得到目标视频帧,最后将目标视频帧输入至已训练的场景识别模型中,得到与当前视频数据片段对应的当前片段场景识别结果。
步骤310,从多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回获取与当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果。
具体地,因为需得到与各个视频数据片段对应的片段场景识别结果,因此再从分割得到的多个视频数据片段中按顺序或者随机获取下一个视频数据片段,再将该视频数据片段作为当前视频数据片段,返回步骤306,再将目标视频帧输入至已训练的场景识别模型中,得到对应的片段场景识别结果。然后再以此类推,直至分割得到的各个视频数据片段都存在对应的片段场景识别结果。
在一个实施例中,建立场景识别结果与视频数据的关联关系包括:建立各个视频数据片段与对应的片段场景识别结果的关联关系。
具体地,服务器在得到各个视频数据片段对应的片段场景识别结果后,需将各个视频数据片段对应的片段场景识别结果与各个视频数据片段之间建立关联关系。服务器可通过相关的多媒体文件来描述各个视频数据片段和对应的片段场景识别结果,其中在多媒体文件中并不直接存放各个视频数据片段,而是先获取各个视频数据片段的存放地址,然后再将各个视频数据片段对应的存放地址与对应的片段场景识别结果建立关联关系。
如,对视频数据进行分割得到三个视频数据片段,三个视频数据片段对应的片段场景识别结果为自然风光、曝光不足和复杂纹理,而三个视频数据片段对应的存放地址分别为:http://xxxxxxx.xxxxxx.com/segment0.ts、http://xxxxxxx.xxxxxx.com/segment1.ts和http://xxxxxxx.xxxxxx.com/segment2.ts,在多媒体描述文件中记载的各个视频数据片段与对应的片段场景识别结果的关联关系的格式为:
#EXTINF:10
#EXTCATDESP:自然风光
http://xxxxxxx.xxxxxx.com/segment0.ts
#EXTINF:10
#EXTCATDESP:曝光不足
http://xxxxxxx.xxxxxx.com/segment1.ts
#EXTINF:9.5
#EXTCATDESP:复杂纹理
http://xxxxxxx.xxxxxx.com/segment2.ts
其中,EXTINF标签为下一个的视频数据片段媒体时长,而EXTCATDESP标签为片段场景识别结果,URL链接地址为各个视频数据片段的存放地址。
在一个实施例中,播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式包括:根据关联关系获取各个视频数据片段对应的片段场景识别结果;根据各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
具体地,服务器在建立各个视频数据片段与对应的片段场景识别结果之间的关联关系后,由于描述各个视频数据片段与对应的片段场景识别结果之间的关联关系的多媒体描述文件中并不直接存放各个视频数据片段,因此需对各个视频数据片段进行编码得到对应的视频编码数据,最后再将各个视频数据片段对应的视频编码数据和描述各个视频数据片段与对应的片段场景识别结果之间的关联关系的多媒体描述文件发送至播放终端。
播放终端接收到服务器发送的各个视频编码数据和多媒体描述文件后,根据多媒体描述文件中的关联关系获取各个视频数据片段对应的片段场景识别结果,再根据各个视频数据片段对应的频段场景识别结果得到对应的图像处理方式。然后再对接收到的各个视频编码数据进行解码得到对应的解码后的解码图像,最终根据获取到的图像处理方式对各个视频数据片段对应的解码图像进行图像处理,得到目标播放视频数据。播放终端可通过客户端对该目标播放视频数据进行播放。
如,多媒体描述文件为:
#EXTINF:10
#EXTCATDESP:自然风光
http://xxxxxxx.xxxxxx.com/segment0.ts
#EXTINF:10
#EXTCATDESP:曝光不足
http://xxxxxxx.xxxxxx.com/segment1.ts
#EXTINF:9.5
#EXTCATDESP:复杂纹理
http://xxxxxxx.xxxxxx.com/segment2.ts
根据多媒体文件中关联关系得到各个视频数据片段的场景识别结果为:第一个视频数据片段对应的片段场景识别结果为自然风光,第二个视频数据片段对应的片段场景识别结果为曝光不足,第三个视频数据片段对应的片段场景识别结果为复杂纹理,再根据各个视频数据片段对应的片段场景识别结果获取对应的图像处理方式分别为:自然风光对应的图像处理方式为:锐化、增强对比度、提高饱和度,曝光不足对应的图像处理方式为:暗部增强、动态范围扩展,复杂纹理对应的图像处理方式为:去躁。
进一步地,在对各个视频数据片段进行图像处理之前,需先根据多媒体文件中的各个视频数据片段对应的存放地址获取对应的各个视频数据片段,在获取到各个视频数据片段后,播放终端对各个视频数据片段进行解码得到对应的解码图像,然后依次根据各个视频数据片段对应的图像处理方式对各个视频数据片段对应的解码图像进行相对应的图像处理,从而得到目标播放视频数据,进而通过相关的客户端进行播放。
上述视频数据处理方法,通过对视频数据进行分割得到多个视频数据片段,然后再通过场景识别模型得到分割得到的每个视频数据片段都存在对应的片段场景识别结果,再建立各个视频数据片段对应的片段场景识别结果的关联关系,将关联关系发送至播放终端。播放终端根据关联关系获取各个视频数据片段对应的片段场景识别结果,再根据各个视频数据片段对应的片段场景识别结果,得到与各个视频数据片段对应的图像处理方式。通过将视频数据进行分割得到多个视频数据片段,再将各个视频数据片段输入至场景识别模型中得到与各个视频数据片段一一对应的片段场景识别结果,这样子不仅可以提高场景识别的精细粒度,而且各个视频数据片段都存在对应的图像处理方式,进一步地提高了视频播放图像的质量。
在一个实施例中,建立各个视频数据片段与对应的片段场景识别结果的关联关系包括:获取各个视频数据片段对应的链接地址,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系。
其中,链接地址是存放视频数据片段的存放地址,由于描述各个视频数据片段与对应的场景识别结果之间的关联关系的多媒体描述文件中不能直接存放视频数据,因此可以在多媒体描述文件中分别使用标签字段来描述各个视频数据片段的存放地址和对应的片段场景识别结果。具体地,服务器先获取存放各个视频数据片段的链接地址,再将各个视频数据片段对应的链接地址与对应的片段场景识别结果一一对应从而建立各个视频数据片段对应的链接地址与对应的片段场景识别结果之间的关联关系。
在一个实施例中,将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,包括:将关联关系写入多媒体描述文件,将多媒体描述文件发送至播放终端,以使播放终端根据关联关系获取各个视频数据片段对应的链接地址,根据链接地址下载各个视频数据片段,根据关联关系获取各个视频数据片段对应的片段场景识别结果。
具体地,在将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系后,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系写入至多媒体描述文件中,具体可以分别使用不同的标签字段来描述各个视频数据片段对应的链接地址和对应的片段场景识别结果。
如,最终多媒体描述文件中记载的各个视频数据片段对应的链接地址与对应的片段场景识别结果可以为:
#EXTINF:10
#EXTCATDESP:自然风光
http://xxxxxxx.xxxxxx.com/segment0.ts
#EXTINF:10
#EXTCATDESP:曝光不足
http://xxxxxxx.xxxxxx.com/segment1.ts
#EXTINF:9.5
#EXTCATDESP:复杂纹理
http://xxxxxxx.xxxxxx.com/segment2.ts
#EXTINF:9.0
#EXTCATDESP:人物写真
http://xxxxxxx.xxxxxx.com/segment3.ts
进一步地,在将各个视频数据片段对应的链接地址与对应的片段场景识别结果之间的关联关系写入多媒体文件中后,服务器将该多媒体文件发送至播放终端,其中多媒体文件可以是但不限于播放列表文件m3u8文件,MP4文件等等。播放终端接收到服务器发送的多媒体文件后,根据多媒体文件中记载的关联关系去获取各个视频数据片段对应的链接地址,再根据各个视频数据片段对应的链接地址去获取对应的视频数据片段,然后再根据多媒体文件中记载的关联关系去获取与各个视频数据片段对应的片段场景识别结果。
在一个实施例中,如图4所示,当目标视频帧包括多个时,将目标视频帧输入已训练的场景识别模型中,得到当前视频数据片段对应的当前片段场景识别结果,包括:
步骤402,将各个目标视频帧输入已训练的场景识别模型中,得到与各个目标视频帧对应的各个初始场景识别结果。
步骤404,根据各个初始场景识别结果确定当前片段场景识别结果。
其中,当从当前视频数据片段中根据预设选取规则获取到的目标视频帧为多个时,需将各个目标视频帧分别输入到已训练的场景识别模型中,已训练的场景识别模型会自动对输入的各个目标视频帧进行判定,得到与各个目标视频帧对应的各个初始场景识别结果。进一步地,根据与各个目标视频帧对应的各个初始场景识别结果根据预设规则确定与当前视频数据片段对应的当前片段场景识别结果。其中,预设规则可自定义,自定义可以但不限于从各个初始场景识别结果中选取出现次数最多的初始场景识别结果确定为当前片段场景识别结果,或者根据各个初始场景识别结果对应的视频数据片段的持续时长来确定为当前片段场景识别结果等等。其中,根据各个初始场景识别结果对应的视频数据片段的持续时长可以是但不限于将视频数据片段持续时长最长且初始场景识别结果出现的次数超过预设阈值的初始场景识别结果确定为当前片段场景识别结果,或者视频数据片段持续时长超过预设时长阈值且初始场景识别结果出现的次数最高的初始场景识别结果为当前片段场景识别结果。
在一个实施例中,若预设规则为根据各个视频数据片段持续时长最长且初始场景识别结果出现的次数超过预设阈值的初始场景识别结果确定为当前片段场景识别结果,如视频数据片段a的持续时长为10秒、视频数据片段b的持续时长为8秒,视频数据片段c的持续时长为10秒,视频数据片段d的持续时长为4秒,视频数据片段m的持续时长为9秒,视频数据片段n的持续时长为10秒,且视频数据片段a的初始场景识别结果为自然风光,视频数据片段b的初始场景识别结果为自然风光,视频数据片段c的初始场景识别结果为人物写真型,视频数据片段d的初始场景识别结果为自然风光,视频数据片段m的初始场景识别结果为曝光不足,视频数据片段n的初始场景识别结果为自然风光。由于各个视频数据片段持续时长最长的为:视频数据片段a、视频数据片段c和视频数据片段n,而视频数据片段a和视频数据片段n对应的初始场景识别结果出现的次数最高,则可将初始场景识别结果为自然风光确定当前片段场景识别结果。
在一个实施例中,当视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像时,对视频数据进行分割得到对应的多个视频数据片段,包括:根据解码视频图像对应的编码信息对解码视频图像进行分割得到对应的多个视频数据片段。
其中,当服务器获取到的视频数据为已编码的视频数据时,服务器需先对获取到的已编码视频数据进行解码得到与已编码视频数据对应的解码视频图像,解码就是利用编码信息对已编码视频数据进行解码从而得到对应的解码视频图像。其中编码信息包括但不限于I帧、B帧、P帧等等。进一步地,在获取到与已编码视频数据对应的解码视频图像后,服务器根据解码视频图像对应的编码信息对解码视频图像进行分割,得到对应的多个视频数据片段。其中,根据解码视频图像对应的编码信息对解码视频图像进行分割的规则可自定义,自定义可以是但不限于根据编码信息中的以视频图像组GOP为单位进行分割,或者以多个视频图像组GOP为单位进行分割,或者根据编码信息中的视频数据的持续时长进行分割等等。
在一个实施例中,若根据解码视频图像对应的编码信息对解码视频图像进行分割的规则为以视频图像组GOP为单位进行分割,根据解码视频图像对应的编码信息为IBBPIBPPPIBBPPIBP,则根据预设分割规则对解码视频图像对应的编码信息进行分割,得到多个视频数据片段为:IBBP、IBPPP、IBBPP、IBP。
在一个实施例中,当视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像时,获取与当前视频数据片段对应的目标视频帧,包括:根据当前视频数据片段中的解码视频图像对应的编码信息获取目标视频帧。
具体地,当服务器获取到的视频数据为已编码的视频数据时,服务器需先对获取到的已编码视频数据进行解码得到与已编码视频数据对应的解码视频图像,在对已编码视频数据进行解码过程中会相应得到与已编码视频数据对应的解码视频图像对应的编码信息。其中,编码信息包括但不限于I帧、B帧、P帧等等。进一步地,服务器可根据预设规则从当前视频数据片段中的解码视频图像对应的编码信息中获取符合预设规则的目标视频帧。其中预设规则可自定义,自定义可以但不限于选取该当前视频数据片段中的解码视频图像对应的编码信息中的关键帧为目标视频帧,或者选取该当前视频数据片段中的解码视频图像对应的编码信息中的第一帧为目标视频帧,或者选取该当前视频数据片段中的解码视频图像对应的编码信息中的一组视频图像组GOP之间的视频帧叠加后取均值得到目标视频帧等等。其中,视频图像组GOP为两个关键帧之间的视频帧图像。
在一个实施例中,场景识别结果包括根据纹理复杂度划分的场景类型、根据图像内容划分的场景类型、根据图像拍摄状态划分的场景类型中的至少一种,不同的场景类型存在不同的图像处理方式。
具体地,在将视频数据输入到已训练的场景识别模型中,场景识别模型输出与视频数据对应的场景识别结果。其中,该场景识别结果可以是根据纹理复杂度划分的场景类型,纹理复杂度是图像中的纹理特征的复杂程度来划分场景类型,如简单纹理型或者复杂纹理型等等。或者场景识别结果可以是根据图像内容划分的场景类型划分的场景类型,如自然风光型或者人物写真型等等。或者场景识别结果可以是根据图像拍摄状态划分的场景类型,如曝光不足型或者曝光过度型等等。为了播放终端播放的最终视频图像的质量能够得到保证,而对于不同的场景类型都会存在不同的图像处理方式。具体的不同的场景类型都会存在不同的图像处理方式之间的关系如上述表1所示。如表1中,场景识别结果为简单纹理型对应的图像处理方式为锐化、边缘增强,或者场景识别结果为复杂纹理型对应的图像处理方式为去躁,或者场景识别结果为自然风光型对应的图像处理方式为锐化、增强对比度、提高饱和度等等。
在一个具体的实施例中,提出了一种视频数据处理方法,具体包括以下内容:
步骤502,如图5所示,服务器获取视频数据,服务器从获取到的视频数据中获取部分视频数据进行视频编码,再从获取到的视频数据中获取部分视频数据进行图像分析步骤,即进行场景模型识别。若服务器也获取到音频数据,则对获取到的音频数据进行编码压缩得到已编码的音频数据。
步骤502a,当服务器获取到的视频数据是未编码的视频数据,则根据预设分割规则对获取到的视频数据进行分割,得到对应的多个视频数据片段。
步骤502b,当服务器获取到的视频数据是已编码的视频数据,则先对获取到的已编码的视频数据进行解码得到对应的解码视频图像,根据解码视频图像对应的编码信息对解码视频图像进行分割得到对应的多个视频数据片段。
步骤504,如图5所示,在图像分析这一步骤中,具体地从分割得到对应的多个视频数据片段中随机选取一个视频数据片段作为当前视频数据片段,根据预设规则获取与当前视频数据片段对应的目标视频帧。
步骤504a,从分割得到对应的多个视频数据片段中随机选取一个视频数据片段作为当前视频数据片段,根据当前视频数据片段中的解码视频图像对应的编码信息获取目标视频帧。
步骤506,将目标视频帧输入到已训练的场景识别模型中,得到与当前视频数据片段对应的当前片段场景识别结果。
步骤506a,当目标视频帧为多个时,将各个目标视频帧输入已训练的场景识别模型中,得到与各个目标视频帧对应的各个初始场景识别结果,根据各个初始场景识别结果确定当前片段场景识别结果。
步骤508,再从分割得到对应的多个视频数据片段中随机选取下一个视频数据片段,将下一个视频数据片段作为当前数据片段,返回步骤504,直至将分割得到的各个视频数据片段都存在对应的片段场景识别结果。
步骤510,如图5所示,在流媒体协议封装步骤中,具体地建立各个视频数据片段对应的片段场景识别结果的关联关系,服务器再将各个视频数据片段对应的片段场景识别结果的关联关系和获取到的视频数据以及已编码的音频数据发送至播放终端。
步骤510a,如图5所示,在流媒体协议封装步骤中,具体可获取各个视频数据片段对应的链接地址,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系,将关联关系写入多媒体描述文件,将多媒体描述文件和获取到的视频数据通过网络传输发送至播放终端。
步骤512,如图5所示,在协议解析步骤中,具体地播放终端根据多媒体描述文件获取对应的已编码视频数据和已编码音频数据。在场景信息解析步骤中,播放终端根据多媒体描述文件中的各个视频数据片段对应的片段场景识别结果的关联关系后,再根据关联关系获取各个视频数据片段对应的片段场景识别结果。而在视频解码步骤中,具体地播放终端对服务器发送的视频数据对应的已编码视频数据进行解码得到对应的解码图像。在音频解码、声音后处理和声音渲染步骤中,具体地播放终端对接收到的已编码音频数据解码成原始声音数据,在对解码得到的原始声音数据进行改善,如声调改变、噪声分离、虚拟环境环绕声效果等,最后通过播放终端相关的设备播放原始声音数据。
步骤512a,如图5所示,在场景信息解析步骤中,播放终端根据多媒体描述文件中的关联关系获取各个视频数据片段对应的链接地址,再根据链接地址下载对应的各个视频数据片段,然后再根据关联关系获取各个视频数据片段对应的片段场景识别结果。
步骤514,如图5所示,在场景信息解析步骤中,具体地播放终端根据各个视频数据片段对应的片段场景识别结果,从而得到各个视频数据片段对应的图像处理方式。
步骤516,播放终端先对服务器发送的视频数据进行解码得到对应的解码图像,在图5中的图像后处理步骤中,播放终端会根据各个视频数据片段对应的图像处理方式对视频编码数据对应的解码图像进行对应的图像处理,得到目标播放视频数据,播放终端可通过客户端播放该目标播放视频数据。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图6所示,在一个实施例中,提供了一种视频数据处理系统,该系统中的服务器602可以是图1中的服务器120,播放终端604可以是图1中的播放终端110,其中该系统包括:
服务器602,用于获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果。
服务器602,还用于建立场景识别结果与视频数据的关联关系,再将视频数据对应的视频编码数据和关联关系发送至播放终端。
播放终端604,用于接收视频数据对应的视频编码数据和关联关系,再根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
具体地,服务器获取自身缓存的未编码的视频数据或者接收到的已编码的视频数据,若服务器接收到的视频数据是已编码的视频数据,则先对已编码的视频数据进行解码,再将解码后的视频数据输入至已训练好的场景识别模型中。或者若服务器获取到的视频数据是未编码的视频数据,就可直接将未编码的视频数据输入至已训练好的场景识别模型中,场景识别模型会自动对输入的视频数据进行自动判定得到与输入的视频数据对应的场景识别结果。在得到与视频数据对应的场景识别结果后,服务器建立场景识别结果与视频数据之间的关联关系,再将视频数据对应的视频编码数据和关联关系发送至播放终端。
播放终端接收到服务器发送的视频编码数据和关联关系后,根据关联关系获取与视频数据对应的场景识别结果,再根据场景识别结果获取与视频数据对应的图像处理方式。进一步地,对接收到的视频编码数据进行解码得到对应的解码图像,然后再根据图像处理方式对视频编码数据对应的解码图像进行图像处理,从而得到目标播放视频数据。最后,可通过播放终端上的客户端播放该目标播放视频数据。
在一个实施例中,服务器602还用于对视频数据进行分割得到对应的多个视频数据片段,获取当前视频数据片段,获取与当前视频数据片段对应的目标视频帧,将目标视频帧输入已训练的场景识别模型中,得到当前视频数据片段对应的当前片段场景识别结果,从多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回获取与当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果,再建立各个视频数据片段对应的片段场景识别结果的关联关系。
播放终端604还用于根据关联关系获取各个视频数据片段对应的片段场景识别结果,根据各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
具体地,在获取到视频数据后,服务器需根据预设分割规则对视频数据进行分割得到对应的多个视频数据片段,其中预设分割规则可自定义。自定义可以是但不限于根据固定的时间间隔进行分割,或者根据视频数据对应的解码信息进行分割,或者根据视频数据固定的大小进行分割等等。进一步地,服务器从多个视频数据片段中随机选取一个视频数据片段作为当前视频数据片段,再获取与当前视频数据片段对应的目标视频帧,再将目标视频帧输入到已训练的场景识别模型中,得到当前视频数据片段对应的当前片段场景识别结果。然后再从分割得到的多个视频数据片段中随机选取下一个视频数据片段作为当前视频数据片段,重新返回获取与当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果,最后再建立各个视频数据片段对应的片段场景识别结果的关联关系。
播放终端接收到各个视频数据片段对应的片段对应的片段场景识别结果的关联关系,再根据关联关系获取各个视频数据片段对应的片段场景识别结果,再根据各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
在一个实施例中,服务器602用于获取各个视频数据片段对应的链接地址,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系。服务器602还用于将关联关系写入多媒体描述文件,将多媒体描述文件发送至播放终端。播放终端604还用于根据关联关系获取各个视频数据片段对应的链接地址,根据链接地址下载各个视频数据片段,根据关联关系获取各个视频数据片段对应的片段场景识别结果。
其中,由于多媒体描述文件中不直接存储视频数据片段,因此可将各个视频数据片段对应的链接地址写入多媒体描述文件,以便能够获取到对应的视频数据片段。具体地,服务器获取存放各个视频数据片段的链接地址,再将各个视频数据片段对应的链接地址写入多媒体描述文件中,再将多媒体描述文件发送至播放终端。播放终端接收到了多媒体描述文件后,根据多媒体描述文件中的关联关系获取各个视频数据片段对应的链接地址,再根据链接地址下载各个视频数据片段,根据关联关系获取各个视频数据片段对应的片段场景识别结果。
在一个实施例中,当目标视频帧包括多个时,服务器602还用于将各个目标视频帧输入已训练的场景识别模型中,得到各个目标视频帧对应的各个初始场景识别结果,再根据各个初始场景识别结果确定当前片段场景识别结果。
在一个实施例中,视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像,服务器还用于根据解码视频图像对应的编码信息对解码视频图像进行分割得到对应的多个视频数据片段,再根据当前视频数据片段中的解码视频图像对应的编码信息获取目标视频帧。
如图7所示,在一个实施例中,提供了一种视频数据处理装置700,该视频数据处理装置700可以设置在视频数据处理系统中的服务器602中,其中该装置包括:
视频数据获取模块702,用于获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
关联关系建立模块704,用于建立场景识别结果与视频数据的关联关系;
视频编码数据发送模块706,用于将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
如图8所示,在一个实施例中,视频数据获取模块702包括:
视频数据片段分割单元702a,用于对视频数据进行分割得到对应的多个视频数据片段;
当前视频数据片段获取单元702b,用于获取当前视频数据片段;
目标视频帧获取单元702c,用于获取与当前视频数据片段对应的目标视频帧;
片段场景识别结果生成单元702d,用于将目标视频帧输入已训练的场景识别模型中,得到当前视频数据片段对应的当前片段场景识别结果;
片段场景识别结果生成单元702d还用于从多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回获取与当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果;
关联关系建立模块704还用于建立各个视频数据片段对应的片段场景识别结果的关联关系。
在一个实施例中,关联关系建立模块704还用于获取各个视频数据片段对应的链接地址,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系。
视频编码数据发送模块706,还用于将关联关系写入多媒体描述文件,将多媒体描述文件发送至播放终端,以使播放终端根据关联关系获取各个视频数据片段对应的链接地址,根据链接地址下载各个视频数据片段,根据关联关系获取各个视频数据片段对应的片段场景识别结果。
在一个实施例中,当目标视频帧包括多个时,视频数据获取模块702还用于将各个目标视频帧输入已训练的场景识别模型中,得到与各个目标视频帧对应的各个初始场景识别结果,根据各个初始场景识别结果确定当前片段场景识别结果。
在一个实施例中,当视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像,视频数据片段分割单元702a还用于根据解码视频图像对应的编码信息对解码视频图像进行分割得到对应的多个视频数据片段。
当前视频数据片段获取单元702b还用于根据当前视频数据片段中的解码视频图像对应的编码信息获取目标视频帧。
在一个实施例中,场景识别结果包括根据纹理复杂度划分的场景类型、根据图像内容划分的场景类型、根据图像拍摄状态划分的场景类型中的至少一种,不同的场景类型存在不同的图像处理方式。
图9示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的服务器120。如图9所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现视频数据处理方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行视频数据处理方法。计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的视频数据处理装置可以实现为一种计算机程序的形式,计算机程序可在如图9所示的计算机设备上运行。计算机设备的存储器中可存储组成该视频数据处理装置的各个程序模块,比如,图7所示的视频数据获取模块、关联关系建立模块和视频编码数据发送模块。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的视频数据处理方法中的步骤。
在一个实施例中,提出了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;建立场景识别结果与视频数据的关联关系;将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
在一个实施例中,获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果,包括:对视频数据进行分割得到对应的多个视频数据片段;获取当前视频数据片段;获取与当前视频数据片段对应的目标视频帧;将目标视频帧输入已训练的场景识别模型中,得到与当前视频数据片段对应的当前片段场景识别结果;从多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回获取与当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果。
在一个实施例中,建立场景识别结果与视频数据的关联关系包括:建立各个视频数据片段对应的片段场景识别结果的关联关系;以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式包括:根据关联关系获取各个视频数据片段对应的片段场景识别结果;根据各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
在一个实施例中,建立各个视频数据片段与对应的片段场景识别结果的关联关系包括:获取各个视频数据片段对应的链接地址,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系;将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,包括:将关联关系写入多媒体描述文件,将多媒体描述文件发送至播放终端,以使播放终端根据关联关系获取各个视频数据片段对应的链接地址,根据链接地址下载各个视频数据片段,根据关联关系获取各个视频数据片段对应的片段场景识别结果。
在一个实施例中,目标视频帧包括多个,将目标视频帧输入已训练的场景识别模型中,得到当前视频数据片段对应的当前片段场景识别结果,包括:将各个目标视频帧输入已训练的场景识别模型中,得到与各个目标视频帧对应的各个初始场景识别结果;根据各个初始场景识别结果确定当前片段场景识别结果。
在一个实施例中,视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像;对视频数据进行分割得到对应的多个视频数据片段,包括:根据解码视频图像对应的编码信息对解码视频图像进行分割得到对应的多个视频数据片段;获取与当前视频数据片段对应的目标视频帧,包括:根据当前视频数据片段中的解码视频图像对应的编码信息获取目标视频帧。
在一个实施例中,场景识别结果包括根据纹理复杂度划分的场景类型、根据图像内容划分的场景类型、根据图像拍摄状态划分的场景类型中的至少一种,不同的场景类型存在不同的图像处理方式。
在一个实施例中,提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;建立场景识别结果与视频数据的关联关系;将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式,根据图像处理方式对视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
在一个实施例中,获取视频数据,将视频数据输入已训练的场景识别模型中,得到对应的场景识别结果,包括:对视频数据进行分割得到对应的多个视频数据片段;获取当前视频数据片段;获取与当前视频数据片段对应的目标视频帧;将目标视频帧输入已训练的场景识别模型中,得到与当前视频数据片段对应的当前片段场景识别结果;从多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回获取与当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果。
在一个实施例中,建立场景识别结果与视频数据的关联关系包括:建立各个视频数据片段对应的片段场景识别结果的关联关系;以使播放终端根据关联关系获取与视频数据对应的场景识别结果,根据场景识别结果获取与视频数据对应的图像处理方式包括:根据关联关系获取各个视频数据片段对应的片段场景识别结果;根据各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
在一个实施例中,建立各个视频数据片段与对应的片段场景识别结果的关联关系包括:获取各个视频数据片段对应的链接地址,将各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系;将视频数据对应的视频编码数据和关联关系发送至播放终端,以使播放终端根据关联关系获取与视频数据对应的场景识别结果,包括:将关联关系写入多媒体描述文件,将多媒体描述文件发送至播放终端,以使播放终端根据关联关系获取各个视频数据片段对应的链接地址,根据链接地址下载各个视频数据片段,根据关联关系获取各个视频数据片段对应的片段场景识别结果。
在一个实施例中,目标视频帧包括多个,将目标视频帧输入已训练的场景识别模型中,得到当前视频数据片段对应的当前片段场景识别结果,包括:将各个目标视频帧输入已训练的场景识别模型中,得到与各个目标视频帧对应的各个初始场景识别结果;根据各个初始场景识别结果确定当前片段场景识别结果。
在一个实施例中,视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像;对视频数据进行分割得到对应的多个视频数据片段,包括:根据解码视频图像对应的编码信息对解码视频图像进行分割得到对应的多个视频数据片段;获取与当前视频数据片段对应的目标视频帧,包括:根据当前视频数据片段中的解码视频图像对应的编码信息获取目标视频帧。
在一个实施例中,场景识别结果包括根据纹理复杂度划分的场景类型、根据图像内容划分的场景类型、根据图像拍摄状态划分的场景类型中的至少一种,不同的场景类型存在不同的图像处理方式。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种视频数据处理方法,包括:
获取视频数据,将所述视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
建立所述场景识别结果与所述视频数据的关联关系;
将所述视频数据对应的视频编码数据和所述关联关系发送至播放终端,以使所述播放终端根据所述关联关系获取与所述视频数据对应的场景识别结果,根据所述场景识别结果获取与所述视频数据对应的图像处理方式,根据所述图像处理方式对所述视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
2.根据权利要求1所述的方法,其特征在于,所述获取视频数据,将所述视频数据输入已训练的场景识别模型中,得到对应的场景识别结果,包括:
将所述视频数据进行分割得到与所述视频数据对应的多个视频数据片段;
获取当前视频数据片段;
获取与所述当前视频数据片段对应的目标视频帧;
将所述目标视频帧输入已训练的场景识别模型中,得到与所述当前视频数据片段对应的当前片段场景识别结果;
从所述多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回所述获取与所述当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果。
3.根据权利要求2所述的方法,其特征在于,所述建立所述场景识别结果与所述视频数据的关联关系包括:
建立各个视频数据片段与对应的片段场景识别结果的关联关系;
所述播放终端根据所述关联关系获取与所述视频数据对应的场景识别结果,根据所述场景识别结果获取与所述视频数据对应的图像处理方式包括:
根据所述关联关系获取各个视频数据片段对应的片段场景识别结果;
根据所述各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
4.根据权利要求3所述的方法,其特征在于,所述建立各个视频数据片段与对应的片段场景识别结果的关联关系包括:
获取各个视频数据片段对应的链接地址,将所述各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系;
所述将所述视频数据对应的视频编码数据和所述关联关系发送至播放终端,以使所述播放终端根据所述关联关系获取与所述视频数据对应的场景识别结果,包括:
将所述关联关系写入多媒体描述文件,将所述多媒体描述文件发送至所述播放终端,以使所述播放终端根据所述关联关系获取各个视频数据片段对应的链接地址,根据所述链接地址下载所述各个视频数据片段,根据所述关联关系获取所述各个视频数据片段对应的片段场景识别结果。
5.根据权利要求2所述的方法,其特征在于,所述目标视频帧包括多个,所述将所述目标视频帧输入已训练的场景识别模型中,得到所述当前视频数据片段对应的当前片段场景识别结果,包括:
将各个目标视频帧输入已训练的场景识别模型中,得到与所述各个目标视频帧对应的各个初始场景识别结果;
根据各个初始场景识别结果确定所述当前片段场景识别结果。
6.根据权利要求2所述的方法,其特征在于,所述视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像;
所述对所述视频数据进行分割得到对应的多个视频数据片段,包括:
根据所述解码视频图像对应的编码信息对所述解码视频图像进行分割得到对应的多个视频数据片段;
所述获取与所述当前视频数据片段对应的目标视频帧,包括:
根据所述当前视频数据片段中的解码视频图像对应的编码信息获取所述目标视频帧。
7.根据权利要求1所述的方法,其特征在于,所述场景识别结果包括根据纹理复杂度划分的场景类型、根据图像内容划分的场景类型、根据图像拍摄状态划分的场景类型中的至少一种,不同的场景类型存在不同的图像处理方式。
8.一种视频数据处理系统,包括:
服务器,用于获取视频数据,将所述视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
所述服务器,还用于建立所述场景识别结果与所述视频数据的关联关系,再将所述视频数据对应的视频编码数据和所述关联关系发送至播放终端;
所述播放终端,用于接收所述视频数据对应的视频编码数据和所述关联关系,再根据所述关联关系获取与所述视频数据对应的场景识别结果,根据所述场景识别结果获取与所述视频数据对应的图像处理方式,根据所述图像处理方式对所述视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
9.根据权利要求7所述的系统,其特征在于,所述服务器还用于对所述视频数据进行分割得到对应的多个视频数据片段,获取当前视频数据片段,获取与所述当前视频数据片段对应的目标视频帧,将所述目标视频帧输入已训练的场景识别模型中,得到所述当前视频数据片段对应的当前片段场景识别结果,从所述多个视频数据片段中获取下一个视频数据片段作为当前视频数据片段,返回所述获取与所述当前视频数据片段对应的目标视频帧的步骤,直到每个视频数据片段存在对应的片段场景识别结果,再建立各个视频数据片段对应的片段场景识别结果的关联关系;
所述播放终端还用于根据所述关联关系获取各个视频数据片段对应的片段场景识别结果,根据所述各个视频数据片段对应的片段场景识别结果,得到各个视频数据片段对应的图像处理方式。
10.根据权利要求9所述的系统,其特征在于,所述服务器用于获取各个视频数据片段对应的链接地址,将所述各个视频数据片段对应的链接地址与对应的片段场景识别结果建立关联关系;
所述服务器还用于将所述关联关系写入多媒体描述文件,将所述多媒体描述文件发送至所述播放终端;
所述播放终端还用于根据所述关联关系获取各个视频数据片段对应的链接地址,根据所述链接地址下载所述各个视频数据片段,根据所述关联关系获取所述各个视频数据片段对应的片段场景识别结果。
11.根据权利要求10所述的系统,其特征在于,所述目标视频帧包括多个,
所述服务器还用于将各个目标视频帧输入已训练的场景识别模型中,得到所述各个目标视频帧对应的各个初始场景识别结果,再根据各个初始场景识别结果确定所述当前片段场景识别结果。
12.根据权利要求10所述的系统,其特征在于,所述视频数据为根据已编码视频数据进行解码得到的对应的解码视频图像,所述服务器还用于根据所述解码视频图像对应的编码信息对所述解码视频图像进行分割得到对应的多个视频数据片段,再根据所述当前视频数据片段中的解码视频图像对应的编码信息获取所述目标视频帧。
13.一种视频数据处理装置,其特征在于,所述装置包括:
视频数据获取模块,用于获取视频数据,将所述视频数据输入已训练的场景识别模型中,得到对应的场景识别结果;
关联关系建立模块,用于建立所述场景识别结果与所述视频数据的关联关系;
视频编码数据发送模块,用于将所述视频数据对应的视频编码数据和所述关联关系发送至播放终端,以使所述播放终端根据所述关联关系获取与所述视频数据对应的场景识别结果,根据所述场景识别结果获取与所述视频数据对应的图像处理方式,根据所述图像处理方式对所述视频编码数据对应的解码图像进行图像处理,得到目标播放视频数据。
14.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述方法的步骤。
CN201810462123.5A 2018-05-15 2018-05-15 视频数据处理方法、装置、计算机设备和存储介质 Active CN108683826B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810462123.5A CN108683826B (zh) 2018-05-15 2018-05-15 视频数据处理方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810462123.5A CN108683826B (zh) 2018-05-15 2018-05-15 视频数据处理方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN108683826A true CN108683826A (zh) 2018-10-19
CN108683826B CN108683826B (zh) 2021-12-14

Family

ID=63805003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810462123.5A Active CN108683826B (zh) 2018-05-15 2018-05-15 视频数据处理方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN108683826B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523613A (zh) * 2018-11-08 2019-03-26 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机可读存储介质和计算机设备
CN110134830A (zh) * 2019-04-15 2019-08-16 深圳壹账通智能科技有限公司 视频信息数据处理方法、装置、计算机设备和存储介质
CN110933489A (zh) * 2019-11-01 2020-03-27 青岛海尔多媒体有限公司 视频播放控制的方法及装置、视频播放设备
WO2020107988A1 (zh) * 2018-11-27 2020-06-04 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备以及存储介质
CN112839256A (zh) * 2020-12-30 2021-05-25 珠海极海半导体有限公司 视频播放方法、装置和电子设备
CN113507643A (zh) * 2021-07-09 2021-10-15 Oppo广东移动通信有限公司 视频处理方法、装置、终端及存储介质
CN113572948A (zh) * 2020-04-29 2021-10-29 华为技术有限公司 视频处理方法和视频处理装置
CN114070950A (zh) * 2020-07-30 2022-02-18 北京市商汤科技开发有限公司 图像处理方法及相关装置、设备
CN114494924A (zh) * 2022-02-17 2022-05-13 江苏云舟通信科技有限公司 可视化目标信息鉴定平台
WO2022161145A1 (zh) * 2021-02-01 2022-08-04 安翰科技(武汉)股份有限公司 图像处理方法、电子设备及可读存储介质
WO2022246653A1 (zh) * 2021-05-25 2022-12-01 京东方科技集团股份有限公司 一种图像处理系统、云服务端及方法
CN115623285A (zh) * 2022-11-17 2023-01-17 蔚来汽车科技(安徽)有限公司 视频播放方法、装置、驾驶设备及计算机可读存储介质
WO2023024519A1 (zh) * 2021-08-27 2023-03-02 华为技术有限公司 一种视频处理方法、装置、设备以及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090066845A1 (en) * 2005-05-26 2009-03-12 Takao Okuda Content Processing Apparatus, Method of Processing Content, and Computer Program
US20110074971A1 (en) * 2009-09-29 2011-03-31 Samsung Electronics Co., Ltd. Method and apparatus for processing image based on scene mode display
US20130294642A1 (en) * 2012-05-01 2013-11-07 Hulu Llc Augmenting video with facial recognition
CN103514593A (zh) * 2012-06-18 2014-01-15 联想(北京)有限公司 图像处理方法及装置
CN103596044A (zh) * 2013-11-22 2014-02-19 深圳创维数字技术股份有限公司 一种视频文件的处理及播放方法、装置及系统
CN103686249A (zh) * 2013-12-11 2014-03-26 深圳市龙视传媒有限公司 一种视频播放的方法、系统以及相关设备
CN104581380A (zh) * 2014-12-30 2015-04-29 联想(北京)有限公司 一种信息处理的方法及移动终端
CN105302872A (zh) * 2015-09-30 2016-02-03 努比亚技术有限公司 图像处理装置和方法
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN106101547A (zh) * 2016-07-06 2016-11-09 北京奇虎科技有限公司 一种图像数据的处理方法、装置和移动终端
US20170094366A1 (en) * 2015-09-29 2017-03-30 Fujitsu Limited Video image reproduction device, video image distribution server, method of reproducing video image and method of distributing video image
CN106998442A (zh) * 2016-06-27 2017-08-01 石飞 智能家居系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090066845A1 (en) * 2005-05-26 2009-03-12 Takao Okuda Content Processing Apparatus, Method of Processing Content, and Computer Program
US20110074971A1 (en) * 2009-09-29 2011-03-31 Samsung Electronics Co., Ltd. Method and apparatus for processing image based on scene mode display
US20130294642A1 (en) * 2012-05-01 2013-11-07 Hulu Llc Augmenting video with facial recognition
CN103514593A (zh) * 2012-06-18 2014-01-15 联想(北京)有限公司 图像处理方法及装置
CN103596044A (zh) * 2013-11-22 2014-02-19 深圳创维数字技术股份有限公司 一种视频文件的处理及播放方法、装置及系统
CN103686249A (zh) * 2013-12-11 2014-03-26 深圳市龙视传媒有限公司 一种视频播放的方法、系统以及相关设备
CN104581380A (zh) * 2014-12-30 2015-04-29 联想(北京)有限公司 一种信息处理的方法及移动终端
US20170094366A1 (en) * 2015-09-29 2017-03-30 Fujitsu Limited Video image reproduction device, video image distribution server, method of reproducing video image and method of distributing video image
CN105302872A (zh) * 2015-09-30 2016-02-03 努比亚技术有限公司 图像处理装置和方法
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN106998442A (zh) * 2016-06-27 2017-08-01 石飞 智能家居系统
CN106101547A (zh) * 2016-07-06 2016-11-09 北京奇虎科技有限公司 一种图像数据的处理方法、装置和移动终端

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523613A (zh) * 2018-11-08 2019-03-26 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机可读存储介质和计算机设备
CN109523613B (zh) * 2018-11-08 2023-01-03 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机可读存储介质和计算机设备
WO2020107988A1 (zh) * 2018-11-27 2020-06-04 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备以及存储介质
CN110134830A (zh) * 2019-04-15 2019-08-16 深圳壹账通智能科技有限公司 视频信息数据处理方法、装置、计算机设备和存储介质
CN110933489A (zh) * 2019-11-01 2020-03-27 青岛海尔多媒体有限公司 视频播放控制的方法及装置、视频播放设备
CN110933489B (zh) * 2019-11-01 2024-04-02 青岛海尔多媒体有限公司 视频播放控制的方法及装置、视频播放设备
CN113572948B (zh) * 2020-04-29 2022-11-11 华为技术有限公司 视频处理方法和视频处理装置
CN113572948A (zh) * 2020-04-29 2021-10-29 华为技术有限公司 视频处理方法和视频处理装置
CN114070950A (zh) * 2020-07-30 2022-02-18 北京市商汤科技开发有限公司 图像处理方法及相关装置、设备
CN112839256A (zh) * 2020-12-30 2021-05-25 珠海极海半导体有限公司 视频播放方法、装置和电子设备
WO2022161145A1 (zh) * 2021-02-01 2022-08-04 安翰科技(武汉)股份有限公司 图像处理方法、电子设备及可读存储介质
WO2022246653A1 (zh) * 2021-05-25 2022-12-01 京东方科技集团股份有限公司 一种图像处理系统、云服务端及方法
CN113507643A (zh) * 2021-07-09 2021-10-15 Oppo广东移动通信有限公司 视频处理方法、装置、终端及存储介质
WO2023024519A1 (zh) * 2021-08-27 2023-03-02 华为技术有限公司 一种视频处理方法、装置、设备以及系统
CN114494924A (zh) * 2022-02-17 2022-05-13 江苏云舟通信科技有限公司 可视化目标信息鉴定平台
CN115623285A (zh) * 2022-11-17 2023-01-17 蔚来汽车科技(安徽)有限公司 视频播放方法、装置、驾驶设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN108683826B (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN108683826A (zh) 视频数据处理方法、装置、计算机设备和存储介质
CN107707931B (zh) 根据视频数据生成解释数据、数据合成方法及装置、电子设备
CN108989830A (zh) 一种直播方法、装置、电子设备及存储介质
US6559846B1 (en) System and process for viewing panoramic video
CN110290425A (zh) 一种视频处理方法、装置及存储介质
CN107734353B (zh) 录制弹幕视频的方法、装置、可读存储介质及设备
CN111491174A (zh) 虚拟礼物获取及展示方法、装置、设备及存储介质
CN109660823A (zh) 视频发布方法、装置、电子设备及存储介质
CN111083515B (zh) 处理直播内容的方法、装置、系统
CN105359544B (zh) 数字视频流传输中的特技播放
US10560731B2 (en) Server apparatus and method for content delivery based on content-aware neural network
CN106162357B (zh) 获取视频内容的方法及装置
CN109379633B (zh) 视频编辑方法、装置、计算机设备及可读存储介质
CN111899322A (zh) 视频处理方法、动画渲染sdk和设备及计算机存储介质
CN107295352A (zh) 一种视频压缩方法、装置、设备及存储介质
CN112423095A (zh) 游戏视频录制方法、装置、电子设备和存储介质
CN110475140A (zh) 弹幕数据处理方法、装置、计算机可读存储介质和计算机设备
US11924483B2 (en) Method for on-demand video editing at transcode- time in a video streaming system
US20150356999A1 (en) Method and system for tracking and analyzing browser session data within online video via the vixel delivery mechanism
CN109982120B (zh) 一种多媒体播放方法及装置
CN110418078A (zh) 视频生成方法、装置、计算机设备和存储介质
CN114339423A (zh) 短视频生成方法、装置、计算设备及计算机可读存储介质
CN109120939B (zh) 一种视频App解码方法及装置
CN106792219B (zh) 一种直播回看的方法及装置
CN112533058A (zh) 视频处理方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant