CN114286154A - 多媒体文件的字幕处理方法、装置、电子设备及存储介质 - Google Patents
多媒体文件的字幕处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114286154A CN114286154A CN202111114803.6A CN202111114803A CN114286154A CN 114286154 A CN114286154 A CN 114286154A CN 202111114803 A CN202111114803 A CN 202111114803A CN 114286154 A CN114286154 A CN 114286154A
- Authority
- CN
- China
- Prior art keywords
- segment
- multimedia file
- dimension
- content
- subtitle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000003672 processing method Methods 0.000 title abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 129
- 238000000034 method Methods 0.000 claims abstract description 85
- 230000003993 interaction Effects 0.000 claims abstract description 64
- 230000008569 process Effects 0.000 claims abstract description 45
- 238000004590 computer program Methods 0.000 claims abstract description 16
- 230000003068 static effect Effects 0.000 claims description 44
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 230000009467 reduction Effects 0.000 claims description 25
- 230000008451 emotion Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 21
- 239000012634 fragment Substances 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 6
- 238000010219 correlation analysis Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000013515 script Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000036651 mood Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Circuits (AREA)
Abstract
本申请提供了一种多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品;方法包括:响应于播放触发操作,播放多媒体文件,其中,所述多媒体文件关联有多条字幕,所述多媒体文件的类型包括视频文件和音频文件,以及在播放所述多媒体文件的过程中,在人机交互界面中依次显示所述多条字幕,其中,所述多条字幕应用的样式与所述多媒体文件的内容相关。通过本申请,能够丰富字幕的表现形式,提高信息传播效果和用户的观看体验。
Description
技术领域
本申请涉及互联网技术领域,尤其涉及一种多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品。
背景技术
随着互联网技术的发展,尤其是网络视频、网络音乐、网络教育等互联网应用的发展,作为信息载体的多媒体文件(例如各种类型的视频文件或者音频文件)被大量使用,使得信息更加快速、便捷的呈现在人们眼前。其中,字幕的作用不可或缺,除了提示人物的对话,字幕还可对视频文件或者音频文件内容进行描述、概括或者总结,例如用户在观看一些国外的视频文件时,需要字幕来帮助理解视频文件的内容。
然而,相关技术提供的方案中,在视频文件或者音频文件的播放过程中,字幕的显示样式单一,无法适应互联网的信息的个性化呈现的需求,影响了信息传播效果和用户体验。
发明内容
本申请实施例提供一种多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品,能够丰富字幕的表现形式,提高信息传播效果和用户的观看体验。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种多媒体文件的字幕处理方法,包括:
响应于播放触发操作,播放多媒体文件,其中,所述多媒体文件关联有多条字幕,所述多媒体文件的类型包括视频文件和音频文件,以及
在播放所述多媒体文件的过程中,在人机交互界面中依次显示所述多条字幕,其中,所述多条字幕应用的样式与所述多媒体文件的内容相关。
上述方案中,所述显示模块,还用于在人机交互界面中依次显示均应用有所述样式的所述多条字幕;其中,所述样式与所述多媒体文件的至少一个维度的内容特征适配,且所述至少一个维度的内容特征包括:风格、对象、场景、情节、色调。
上述方案中,所述装置还包括获取模块,用于获取所述多媒体文件的至少一个维度的内容特征;所述装置还包括转换模块,用于基于所述至少一个维度的内容特征,对所述多媒体文件关联的多条原始字幕进行样式转换处理,得到多条新字幕;其中,所述多条新字幕用于作为在所述人机交互界面中待显示的所述多条字幕。
上述方案中,所述转换模块,还用于基于所述至少一个维度的内容特征对应的取值、以及所述多媒体文件关联的多条原始字幕调用字幕模型,得到多条新字幕;其中,所述字幕模型是作为生成模型,并与判别模型组成生成式对抗网络来进行训练得到的。
上述方案中,所述多媒体文件包括多个片段,所述片段的类型包括以下至少之一:对象片段、场景片段、情节片段;所述显示模块,还用于在播放所述多媒体文件的每个所述片段的过程中执行以下处理:基于与所述片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与所述片段关联的至少一条字幕。
上述方案中,所述获取模块,还用于获取所述片段的静态维度的内容特征,其中,所述对象片段的静态维度的内容特征包括所述对象片段中发声对象的以下对象属性至少之一:角色类型、性别、年龄;所述场景片段的静态维度的特征包括所述场景片段的场景类型;所述情节片段的静态维度的特征包括所述情节片段的情节进度;所述显示模块,还用于基于与所述片段的静态维度的内容特征适配的样式,在人机交互界面中同步显示与所述片段关联的至少一条字幕,其中,所述样式在所述片段的播放过程中保持不变。
上述方案中,所述片段包括多个子片段,所述多个子片段具有所述片段的静态维度的内容特征、以及所述片段的动态维度的内容特征,且不同子片段具有的动态维度的内容特征不同;所述显示模块,还用于在播放所述片段的每个子片段的过程中执行以下处理:基于与所述子片段具有的静态维度的内容特征和动态维度的内容特征适配的样式,显示与所述子片段关联的至少一条字幕。
上述方案中,所述对象片段的静态维度的内容特征包括以下对象属性至少之一:所述对象片段中发声对象的角色类型、性别、年龄;所述对象片段的动态维度的内容特征包括以下对象属性:所述对象片段中发声对象的情绪;所述情节片段的静态维度的内容特征包括所述情节片段的情节类型,所述情节片段的动态维度的内容特征包括以下至少之一:所述情节片段出现的不同场景的场景类型、所述情节片段出现的不同发声对象的对象属性;所述场景片段的静态维度的内容特征包括:所述场景片段涉及的场景的类型;所述场景片段的动态维度的内容特征包括以下至少之一:所述场景片段中出现的不同发声对象的对象属性,所述场景片段中出现的不同情节的类型。
上述方案中,当所述至少一个维度为多个维度时,所述装置还包括融合模块,用于将所述片段的多个维度的内容特征进行融合处理,得到融合内容特征;所述转换模块,还用于基于所述融合内容特征对与所述片段关联的至少一条原始字幕进行样式转换处理,得到至少一条新字幕;其中,所述至少一条新字幕用于作为在所述人机交互界面中待显示的所述至少一条字幕。
上述方案中,所述获取模块,还用于调用内容特征识别模型对所述多媒体文件的内容进行内容特征识别处理,得到所述多媒体文件的至少一个维度的内容特征;其中,所述内容特征识别模型是基于样本多媒体文件、以及针对所述样本多媒体文件的内容标注的标签进行训练得到的。
上述方案中,当所述多媒体文件为所述视频文件时,所述获取模块,还用于针对所述视频文件中出现的目标对象执行以下处理:对所述目标对象所在的目标视频帧进行预处理;对经过预处理后的所述目标视频帧进行特征提取,得到所述目标视频帧对应的图像特征;对所述图像特征进行降维处理,并通过训练好的分类器对经过降维处理后的所述图像特征进行分类处理,得到所述目标对象的对象属性。
上述方案中,当所述多媒体文件为所述视频文件时,所述获取模块,还用于针对所述视频文件中出现的目标对象执行以下处理:提取所述目标对象所在的目标视频帧对应的局部二值模式特征,并对所述局部二值模式特征进行降维处理;提取所述目标视频帧对应的方向梯度直方图特征,并对所述方向梯度直方图特征进行降维处理;对经过降维处理后的所述局部二值模式特征和所述方向梯度直方图图像进行典型相关分析处理,得到分析结果;对所述分析结果进行回归处理,得到所述目标对象的对象属性。
上述方案中,当所述多媒体文件为所述视频文件时,所述获取模块,还用于针对所述视频文件中出现的目标对象执行以下处理:对所述目标对象所在的目标视频帧进行规格化处理,并对经过规格化处理后的所述目标视频帧进行分区处理,得到多个子区域;提取每个所述子区域对应的局部二值模式特征,并对多个所述局部二值模式特征进行统计处理,得到所述目标视频帧对应的局部直方图统计特征;通过训练集局部特征库对所述局部直方图统计特征进行局部稀疏重构表示,并对局部稀疏重构表示结果进行局部重构残差加权识别处理,得到所述目标对象的对象属性。
上述方案中,当所述视频文件中出现多个对象时,所述装置还包括确定模块,用于通过以下任意一种方式从所述多个对象中确定所述目标对象:将所述视频文件中出现时间最长的对象确定为所述目标对象;将所述视频文件中符合用户偏好的对象确定为所述目标对象;将所述视频文件中与用户互动相关的对象确定为所述目标对象。
本申请实施例提供一种多媒体文件的字幕处理装置,包括:
播放模块,用于响应于播放触发操作,播放多媒体文件,其中,所述多媒体文件关联有多条字幕,所述多媒体文件的类型包括视频文件和音频文件;
显示模块,用于在播放所述多媒体文件的过程中,在人机交互界面中依次显示所述多条字幕,其中,所述多条字幕应用的样式与所述多媒体文件的内容相关。
本申请实施例提供一种电子设备,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的多媒体文件的字幕处理方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的多媒体文件的字幕处理方法。
本申请实施例提供一种计算机程序产品,包括计算机程序或指令,用于引起处理器执行时,实现本申请实施例提供的多媒体文件的字幕处理方法。
本申请实施例具有以下有益效果:
在播放多媒体文件的过程中,在人机交互界面中显示与多媒体文件的内容相关的样式的字幕,通过丰富字幕的表现形式来实现多媒体文件相关信息的多样化的展示效果,能够适用于多媒体文件的不同应用场景的多样化的字幕展示需求,增进了信息展示的效率和效果,同时也提高了用户的观看体验。
附图说明
图1是本申请实施例提供的多媒体文件的字幕处理系统100的架构示意图;
图2是本申请实施例提供的终端设备400的结构示意图;
图3是本申请实施例提供的多媒体文件的字幕处理方法的流程示意图;
图4A是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图;
图4B是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图;
图4C是本申请实施例提供的针对片段进行划分的原理示意图;
图4D至图4F是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图;
图5A是本申请实施例提供的多媒体文件的字幕处理方法的流程示意图;
图5B是本申请实施例提供的多媒体文件的字幕处理方法的流程示意图;
图6A至图6C是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图;
图7是本申请实施例提供的视频内容维度示意图;
图8是本申请实施例提供的人物性别识别原理示意图;
图9是本申请实施例提供的人物年龄识别原理示意图;
图10是本申请实施例提供的人物情绪识别原理示意图;
图11是本申请实施例提供的视频风格识别原理示意图;
图12是本申请实施例提供的生成式对抗网络模型的训练流程示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)字幕,指电影、电视等视频、以及戏剧、歌曲等音频中出现的各种用途的文字,例如版权标识、片名字幕、演员表、说明字幕(用于介绍多媒体文件的内容,例如将多媒体文件中出现的人物或者景色的相关信息以文字方式显示)、歌词字幕、对话字幕(与发声对象同步,用于将发声对象的语音内容以文字方式显示,以帮助用户理解视频文件或者音频文件(例如有声小说)的内容)。
2)多媒体文件,就数据形式而言,包括流媒体文件(流媒体技术是指将一连串的多媒体数据压缩后,以流的方式在网络中分段传送,实现在网络上实时传输影音以供播放的一种技术,对应于网络播放场景)和非流媒体文件(在播放前首先需要下载整个多媒体文件,对应于本地播放场景);就承载的内容而言,包括视频文件和音频文件。
3)内容特征,包括静态维度的内容特征和动态维度的内容特征,其中,静态维度的内容特征在多媒体文件的播放过程中保持不变,例如对象的性别、年龄;动态维度的内容特征在多媒体文件的播放过程中会发生变化,例如对象的情绪。
4)样式,又称字幕样式,与字幕的视觉相关的属性,通过相同属性的不同变换以及不同属性的组合,可以形成多种样式。例如属性可以包括:字体、颜色、字号、字间距、加粗、倾斜、下划线、删除线、阴影偏移与颜色、对齐方式、垂直边距等。
申请人在实施本申请实施例的过程中发现,相关技术提供的方案中,在播放多媒体文件(例如视频文件)的过程中,视频字幕的显示方式是相同的,且是固定不变的,例如在视频文件的播放过程中,字幕始终以一种固定的字体进行显示,也就是说,相关技术中字幕的显示样式比较单一,无法适应互联网的信息的个性化呈现的需求,影响了信息传播效果和用户的观看体验。
鉴于此,本申请实施例提供一种多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品,能够丰富字幕的表现形式,提高信息传播效果和用户的观看体验。下面说明本申请实施例提供的电子设备的示例性应用,本申请实施例提供的电子设备可以实施为笔记本电脑,平板电脑,台式计算机,机顶盒,移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)、车载终端等各种类型的终端设备,也可以由服务器和终端设备协同实施。下面,将说明电子设备实施为终端设备时的示例性应用。
参见图1,图1是本申请实施例提供的多媒体文件的字幕处理系统100的架构示意图,为实现支撑一个丰富字幕的表现形式的应用,终端设备400通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合。
服务器200是终端设备400上运行的客户端410的后台服务器,例如当客户端410为浏览器时,服务器200可以是某个视频网站或者音频网站的后台服务器,服务器200在接收到终端设备400发送的网络请求后,通过网络300向终端设备400发送所请求的多媒体文件(例如流媒体文件),其中,多媒体文件关联有多条字幕。
终端设备400上运行的客户端410可以是各种类型的客户端,例如视频播放客户端、音频播放客户端、浏览器、以及即时通信客户端等,客户端410在接收到播放触发操作(例如接收到用户针对人机交互界面中显示的播放按钮的点击操作)时,播放从服务器200中实时接收到的多媒体文件,以及在播放多媒体文件的过程中,在人机交互界面中依次显示多条字幕,其中,多条字幕应用的样式与多媒体文件的内容相关(将在下文进行具体说明)。
在一些实施例中,本申请实施例提供的多媒体文件的字幕处理方法也可以由终端设备独自实现,例如在终端设备400本地预先存储有已经下载好的多媒体文件(多媒体文件关联有多条字幕),则客户端410在接收到播放触发操作时,播放终端设备400本地存储的多媒体文件,以及在播放多媒体文件的过程中,在人机交互界面中依次显示多条字幕,其中,多条字幕应用的样式与多媒体文件的内容相关。
在另一些实施例中,本申请实施例还可以借助于云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、以及应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源。
示例的,图1中示出的服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(CDN,ContentDelivery Network)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端设备400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端设备400以及服务器200可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
在一些实施例中,终端设备400还可以通过运行计算机程序来实现本申请实施例提供的多媒体文件的字幕处理方法。例如,计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(APP,Application),即需要在操作系统中安装才能运行的程序(即上述的客户端410),如视频播放客户端、音频播放客户端、浏览器等;也可以是小程序,即只需要下载到浏览器环境中就可以运行的程序;还可以是能够嵌入至任意APP中的小程序。总而言之,上述计算机程序可以是任意形式的应用程序、模块或插件。
下面继续对图1中示出的终端设备400的结构进行说明,参见图2,图2是本申请实施例提供的终端设备400的结构示意图。图2所示的终端设备400包括:至少一个处理器420、存储器460、至少一个网络接口430和用户接口440。终端设备400中的各个组件通过总线系统450耦合在一起。可理解,总线系统450用于实现这些组件之间的连接通信。总线系统450除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统450。
处理器420可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
存储器460包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器460旨在包括任意适合类型的存储器。存储器460可选地包括在物理位置上远离处理器420的一个或多个存储设备。
在一些实施例中,存储器460能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统461,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块462,用于经由一个或多个(有线或无线)网络接口430到达其他计算设备,示例性的网络接口430包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
呈现模块463,用于经由一个或多个与用户接口440相关联的输出装置441(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
输入处理模块464,用于对一个或多个来自一个或多个输入装置442之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的多媒体文件的字幕处理装置可以采用软件方式实现,本申请实施例提供的多媒体文件的字幕处理装置可以提供为各种软件实施例,包括应用程序、软件、软件模块、脚本或代码在内的各种形式。
图2示出了存储在存储器460中的多媒体文件的字幕处理装置465,其可以是程序和插件等形式的软件,并包括一系列的模块,包括播放模块4651、显示模块4652、获取模块4653、转换模块4654、融合模块4655和确定模块4656,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。需要指出的是,在图2中为了表述方便,一次性示出了上述所有模块,但是不应视为在多媒体文件的字幕处理装置465排除了可以只包括播放模块4651和显示模块4652的实施,将在下文中说明各个模块的功能。
在另一些实施例中,本申请实施例提供的多媒体文件的字幕处理装置可以采用硬件方式实现,作为示例,本申请实施例提供的多媒体文件的字幕处理装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本申请实施例提供的多媒体文件的字幕处理方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、数字信号处理(DSP,Digital SignalProcessing)、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)或其他电子元件。
如前所述,本申请实施例提供的多媒体文件的字幕处理方法可以由各种类型的电子设备实施。参见图3,图3是本申请实施例提供的多媒体文件的字幕处理方法的流程示意图,将结合图3示出的步骤进行说明。
需要说明的是,图3示出的方法可以由终端设备400运行的各种形式的计算机程序执行,并不局限于上述终端设备400运行的客户端410,例如还可以是上文所述的操作系统461、软件模块、脚本和小程序,因此下文中以客户端的示例不应视为对本申请实施例的限定。
在步骤S101中,响应于播放触发操作,播放多媒体文件。
这里,多媒体文件关联有多条字幕,且每条字幕在多媒体文件的播放时间轴上对应一个播放时段。条是字幕显示的基本单位,可以是一行或多行文本,包括如人物语言的多语种文本、情节、人物的介绍等。每条字幕被设置有对应的一个显示时间段,包括开始显示时间和结束显示时间,例如对于一条字幕A,对应的显示时间段可以为10:00-10:05,也就是说,可以根据多媒体文件的实时播放进度所处的播放时段,显示对应的一条字幕,且字幕是应用了与多媒体文件的至少一个维度的内容特征适配的样式,即对于不同的多媒体文件关联的字幕,对应显示的样式是不同的,从而实现了多媒体文件相关信息的多样化的展示效果,提升了信息的传播效果和用户的观看体验。
此外,多媒体文件的数据形式可以包括流媒体文件(对应于网络播放场景,例如客户端响应于播放触发操作,实时向服务器请求流媒体文件并进行播放)和非流媒体文件(对应于本地播放场景,例如客户端响应于播放触发操作,播放终端设备本地预先存储的非流媒体文件),且多媒体文件的类型(即承载的内容)可以包括视频文件和音频文件。
示例的,以多媒体文件为视频文件为例,假设字幕“你怎么知道啊”在视频文件的播放时间轴上对应的播放时段为10:00至10:05,则在播放视频文件的第10:00至10:05的过程中,显示字幕“你怎么知道啊”,且字幕“你怎么知道啊”是应用了相应的样式的,例如应用了与播放时段为10:00至10:05的对象片段中发声对象的属性(例如年龄、性别、情绪等)适配的样式。
在一些实施例中,字幕文件的格式可以包括图片格式和文本格式,其中,图片格式的字幕文件由idx和sub文件组成,idx相当于索引文件,里面包括了字幕出现的时间码(即上述的播放时段)和字幕显示的属性(即上述的样式),sub文件就是字幕数据本身,由于是图片格式,占用的空间比较大,因此可以进行压缩处理,以节省空间。文本格式的字幕文件的扩展名通常是ass、srt、sml、ssa或sub(和上述图片格式的字幕后缀一样,但数据格式不同),因为是文本格式,所以占用的空间较小。
需要说明的是,对于文本格式的字幕,字幕的样式(包括原始的样式和新的样式(即与多媒体文件的至少一个维度的内容特征适配的样式))都可以记录在ass、srt、sml、ssa或sub等文件中。
在步骤S102中,在播放多媒体文件的过程中,在人机交互界面中依次显示多条字幕。
这里,多条字幕(即与多媒体文件关联的多条字幕,例如可以通过从上述的字幕文件中读取得到)应用的样式与多媒体文件的内容相关。
在一些实施例中,多条字幕应用的样式可以是相同的(即字幕样式在整个多媒体文件的播放过程中保持不变),则可以通过以下方式实现上述的在人机交互界面中依次显示多条字幕:在人机交互界面中依次显示应用了同一样式的多条字幕;其中,字幕应用的同一样式与多媒体文件的至少一个维度的内容特征适配。
示例的,以多媒体文件为视频文件为例,在播放视频文件的过程中,在人机交互界面中依次显示应用了与视频文件的至少一个维度的内容特征(例如视频文件的风格)适配的样式(例如当视频文件的风格为喜剧时,对应的样式可以是华文彩云、四号、蓝色)的多条字幕,即在播放整个视频文件的过程中,字幕均是以字体为华文彩云、字号为四号、颜色为蓝色的样式进行显示的,也就是说,当视频文件的风格为喜剧时,对应的字幕样式的风格也是偏卡通、搞笑的,与视频文件的内容的贴合度较高,提升了用户在观看视频文件的过程中的沉浸感。
需要说明的是,在实际应用中,字幕可以是在人机交互界面的固定位置显示的(例如在人机交互界面的中下部位显示字幕),当然字幕显示的位置也可以是动态变化的,例如对于视频文件来说,字幕可以是在人机交互界面中避让视频画面中出现的对象的位置进行显示的,也可以是采用叠加在视频画面之上的方式显示字幕,本申请实施例对字幕显示的位置不做具体限定。
在另一些实施例中,多条字幕应用的样式也可以是不同的(即字幕样式在整个多媒体文件的播放过程中会发生变化,例如多条字幕分别应用所属片段的至少一个维度的内容特征适配的样式),则可以通过以下方式实现上述的在人机交互界面中依次显示多条字幕:对多媒体文件进行划分,得到多个片段(片段的类型可以包括:对象片段、场景片段、情节片段等);在播放多媒体文件的每个片段的过程中执行以下处理:基于与片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与片段关联的至少一条字幕。
示例的,可以按照多媒体文件中出现的对象(例如人物、动物等)将多媒体文件划分成多个对象片段,其中,每个对象片段包括一个对象(例如对象片段A包括的对象为对象A,对象片段B包括的对象为对象B,其中,对象A和对象B是两个不同的对象,两者的对象属性不同,例如对象A为男性、对象B为女性,或者对象A为青年人、对象B为老年人),接着在播放多媒体文件的每个对象片段的过程中执行以下处理:基于与对象片段(例如对象片段A)的至少一个维度的内容特征适配的样式(例如与对象片段A包括的对象A的对象属性(例如识别出对象A为男性)适配的样式,假设与男性适配的样式为黑体、五号,即字幕样式的风格是偏阳刚的),在人机交互界面中依次显示与对象片段A关联的至少一条字幕(即与对象片段A关联的至少一条字幕是以字体为黑体、字号为五号的样式进行显示的)。
示例的,可以按照场景的不同将多媒体文件划分成多个场景片段(例如对于各种类型的历史、或者地理记录片,可以按照场景将纪录片划分成多个不同的场景片段),其中,每个场景片段包括一个场景(不同场景片段包括的场景可以是不同的,例如场景片段A包括的场景为校园,场景片段B包括的场景为公园),接着在播放多媒体文件的每个场景片段的过程中执行以下处理:基于与场景片段(例如场景片段B)的至少一个维度的内容特征适配的样式(例如与场景片段B包括的场景适配的样式,假设场景片段B包括的场景为海边,则与海边适配的样式可以是楷体、蓝色,即字幕样式的风格是与海边适配的),在人机交互界面中依次显示与场景片段B关联的至少一条字幕(即与场景片段B关联的至少一条字幕是以字体为楷体、颜色为蓝色的样式进行显示的)。
示例的,可以按照多媒体文件的内容将多媒体文件划分成多个情节片段(例如对于视频文件,可以划分成故事的发生、发展、高潮和结局等多个情节片段),其中,每个情节片段对应一个情节(不同情节片段对应的情节可以是不同的,例如情节片段A对应故事的发展阶段,情节片段B对应故事的高潮阶段),接着在播放多媒体文件的每个情节片段的过程中执行以下处理:基于与情节片段(例如情节片段C)的至少一个维度的内容特征适配的样式(例如假设情节片段C为高潮片段,则与高潮片段适配的样式可以是华文琥珀、三号,字号较大、字体风格较为严肃,与高潮片段适配),在人机交互界面中依次显示与情节片段C关联的至少一条字幕(即与情节片段C关联的至少一条字幕是以字体为华文琥珀、字号为三号的样式进行显示的)。
需要说明的是,上述对多媒体文件进行划分的过程仅仅是对多媒体文件的一种逻辑上的识别和划分,多媒体文件的数据形式不发生改变,即不需要分割多媒体文件,而仅仅是在多媒体文件的播放时间轴上添加相应的标记,以将多媒体文件从逻辑上划分成不同的片段。
此外,还需要说明的是,在实际应用中,可以进行单一类型的划分,即识别出一种类型的多个片段(例如可以仅仅根据多媒体文件中出现的对象将多媒体文件划分成多个对象片段);也可以进行复合类型的划分,即识别出多个不同类型的片段(例如可以同时根据多媒体文件中出现的对象以及场景对多媒体文件进行划分,如此,划分得到的多个片段可以同时包括对象片段和场景片段,随后,对划分得到的对象片段和场景片段进行合并及去重处理(例如当对象片段A(假设对应的时段为10:00-12:00)和场景片段B(假设对应的时段也为10:00-12:00)重合时,仅保留一个),从而得到最终的划分结果),本申请实施例对划分方式不做具体限定。
在另一些实施例中,同一片段关联的至少一条字幕应用的样式可以是相同的(即在播放同一片段的过程中,字幕样式不会发生变化),则可以通过以下方式实现上述的基于与片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与片段关联的至少一条字幕:获取片段的静态维度的内容特征,在人机交互界面中同步显示与片段关联的至少一条字幕,其中,字幕应用的样式在片段的播放过程中保持不变。
示例的,以片段的类型为对象片段为例,对象片段的静态维度的内容特征可以包括对象片段中发声对象的以下对象属性至少之一:角色类型(包括正派角色和反派角色)、性别、年龄;例如对于对象片段A,首先获取对象片段A中的发声对象(例如对象A)的对象属性(例如对象A的性别,假设识别出对象A的性别为女性),接着在人机交互界面中同步显示与对象片段A关联的至少一条字幕,其中,字幕应用的样式是与女性适配的(例如样式可以为幼圆、粉色,即字幕风格比较偏女性化)、且在对象片段A的播放过程中保持不变(即在播放对象片段A的过程中,字幕始终是以字体为幼圆,颜色为粉色的样式进行显示的)。
举例来说,以多媒体文件为视频文件为例,参见图4A,图4A是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图,如图4A所示,对于某个对象片段(对应的播放时段为40:30至40:40),当识别出对象片段中的发声对象401的性别为女性时,在人机交互界面中同步显示与对象片段关联的至少一条字幕,例如在40:30显示字幕402(“好开心,买了新衣服”)、以及在40:40显示字幕403(“可是下个月要吃土了”),且字幕402和字幕403是应用了与女性适配的样式的(例如字幕402和字幕403的字体风格是偏可爱的),且样式在对象片段的播放过程中保持不变(即字幕402和字幕403应用的样式是相同的)。
需要说明的是,对于情节片段,情节片段的静态维度的内容特征可以包括情节片段的情节进度,且针对同一个情节片段,在播放该情节片段的过程中,与该情节片段关联的所有字幕应用的样式可以是相同的(例如对于该情节片段关联的所有字幕均应用与情节进度适配的样式);而对于场景片段,场景片段的静态维度的内容特征可以包括场景片段的场景类型,且针对同一个场景片段,在播放该场景片段的过程中,与该场景片段关联的所有字幕应用的样式可以是相同的(例如对于该场景片段关联的所有字幕均应用与场景类型适配的样式)。
此外,还需要说明的是,不同片段关联的字幕应用的样式可以是不同的,例如以对象片段为例,参见图4B,图4B是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图,如图4B所示,发声对象404和发声对象406属于不同的对象片段包括的发声对象,且发声对象404所在的对象片段关联的字幕405(“晚上去吃什么呢”)与发声对象406所在的对象片段关联的字幕407(“烧烤怎么样”)应用的样式是不同的(例如字幕405的字体为方正舒体,而字幕407的字体为华文彩云),如此,针对不同的发声对象对应的字幕应用了不同的样式(例如字幕405应用的样式是与女性适配的方正舒体(字体风格比较柔和),而字幕407应用的样式是与男性适配的华文彩云(字体风格比较阳刚)),从而便于用户对视频文件中出现的不同对象进行区分。
在一些实施例中,在对多媒体文件进行划分,得到多个片段之后,还可以针对多个片段中的任意一个或者多个片段进行再次划分,得到多个子片段。例如,参见图4C,图4C是本申请实施例提供的针对片段进行划分的原理示意图,如图4C所示,以对多媒体文件划分得到的多个片段中的场景片段1和情节片段2(场景片段1和情节片段2可以是相邻的两个片段,即在播放完场景片段1后,继续播放情节片段2)为例,针对场景片段1,可以按照场景片段1中出现的人物将场景片段1进一步划分成3个不同的人物子片段(例如包括人物子片段1、人物子片段2和人物子片段3,其中,不同的人物子片段包括的人物可以是不同的,例如人物子片段1包括人物A、人物子片段2包括人物B、人物子片段3包括人物C);针对情节片段2,也可以按照情节片段2中出现的场景将情节片段2进一步划分成2个不同的场景子片段(例如包括场景子片段1和场景子片段2,其中,不同的场景子片段包括的场景可以是不同的,例如场景子片段1的场景为校园,场景子片段2的场景为公园)。以场景片段1为例,在划分得到3个人物子片段之后,针对每个人物子片段,在播放人物子片段的过程中,可以基于与子片段的至少一个维度的内容特征适配的样式,显示人物子片段关联的至少一条字幕,下面进行具体说明。
在一些实施例中,当同一片段关联的多条字幕应用的样式不同时,可以通过以下方式实现上述的基于与片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与片段关联的至少一条字幕:对片段进行划分,得到多个子片段,其中,多个子片段具有片段的静态维度的内容特征(静态维度的内容特征在片段的播放过程中保持不变)、以及片段的动态维度的内容特征(不同的动态维度的内容特征在片段的播放过程中会发生变化),且不同子片段具有的动态维度的内容特征不同;在播放片段的每个子片段的过程中执行以下处理:基于与子片段具有的静态维度的内容特征和动态维度的内容特征适配的样式,显示与子片段关联的至少一条字幕。
示例的,对于对象片段,对象片段的静态维度的内容特征可以包括以下对象属性至少之一:对象片段中发声对象的角色类型、性别、年龄;对象片段的动态维度的内容特征可以包括以下对象属性:对象片段中发声对象的情绪;例如以多媒体文件为视频文件为例,对于视频文件中的某个对象片段(例如对象片段A),首先将对象片段A划分成多个子片段,接着在播放对象片段A的每个子片段的过程中执行以下处理:基于与子片段具有的静态维度的内容特征(例如对象片段A中发声对象的性别)和动态维度的内容特征(例如发声对象在当前子片段中的情绪)适配的样式,显示与子片段关联的至少一条字幕(即与子片段关联的至少一条字幕应用的样式是与发声对象的性别、以及发声对象在当前子片段中的情绪适配的)。
举例来说,以多媒体文件为视频文件为例,参见图4D,图4D是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图,如图4D所示,子片段408和子片段409属于同一个对象片段的不同子片段,在子片段408中发声对象410的表情是悲伤的,而在子片段409中发声对象410的表情从悲伤变成开心,对应的,子片段408关联的字幕411(“不要离开我”)应用的样式与子片段409关联的字幕412(“很开心又见到你”)应用的样式是不同的(例如字幕411的字体为华文隶书、字号为小四,字号较小,字体风格偏严肃,与悲伤的情绪适配;而字幕412的字体为华文彩云、字号为四号,字号较大,字体风格偏喜庆,与开心的情绪适配),如此,针对同一个对象片段,字幕样式会随着发声对象情绪的变化而对应调整,使得字幕样式与视频内容的贴合度更高,提升用户在观看视频过程中的沉浸感。
示例的,对于情节片段,情节片段的静态维度的内容特征可以包括情节片段的情节类型,情节片段的动态维度的内容特征可以包括以下至少之一:情节片段中出现的不同场景的场景类型、情节片段中出现的不同发声对象的对象属性;例如以多媒体文件为视频文件为例,对于视频文件中的某个情节片段(例如情节片段B),首先将情节片段B划分成多个子片段,接着在播放情节片段B的每个子片段的过程中执行以下处理:基于与子片段具有的静态维度的内容特征(例如情节片段B的情节类型)和动态维度的内容特征(例如当前子片段中出现的场景类型)适配的样式,显示与子片段关联的至少一条字幕(即与子片段关联的至少一条字幕应用的样式是与情节片段B的情节类型、以及当前子片段中出现的场景类型适配的)。
举例来说,以多媒体文件为视频文件为例,参见图4E,图4E是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图,如图4E所示,子片段413和子片段414是属于同一个情节片段的不同子片段,在子片段413中出现的场景为家里,而在子片段414中出现的场景从家里切换为户外,对应的,子片段413关联的字幕415(“爸爸,去爬山好吗”)与子片段414关联的字幕416(“爸爸,等等我”)应用的样式是不同的(例如字幕415的字体为黑体,而字幕416的字体为华文琥珀),如此,针对同一个情节片段的不同子片段,字幕样式会随着不同子片段的动态维度的内容特征的变化而对应调整,从而用户能够根据字幕样式的变化更加容易理解视频内容。
示例的,对于场景片段,场景片段的静态维度的内容特征可以包括:场景片段涉及的场景的类型,场景片段的动态维度的内容特征可以包括以下至少之一:场景片段中出现的不同发声对象的对象属性,场景片段中出现的不同情节的类型;例如以多媒体文件为视频文件为例,对于视频文件中的某个场景片段(例如场景片段C),首先将场景片段C划分成多个子片段,接着在播放场景片段C的每个子片段的过程中执行以下处理:基于与子片段具有的静态维度的内容特征(例如场景片段C涉及的场景类型)和动态维度的内容特征(例如当前子片段中出现的情节的类型)适配的样式,显示与子片段关联的至少一条字幕(即与子片段关联的至少一条字幕应用的样式是与场景片段C涉及的场景类型、以及当前子片段中出现的情节的类型适配的)。
举例来说,以多媒体文件为视频文件为例,参见图4F,图4F是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图,如图4F所示,子片段417和子片段418是属于同一个场景片段的不同子片段,在子片段417中出现的情节的类型为发展阶段,而在子片段418中出现的情节的类型从发展阶段进入高潮阶段,对应的,子片段417关联的字幕419(“中古时代的建筑比较简陋”)与子片段418关联的字幕420(“复兴时代的建筑更加现代化”)应用的样式是不同的(例如字幕419的字体为华文行楷,而字幕420的字体为幼圆),如此,针对同一场景片段的不同子片段,字幕样式会随着不同子片段的动态维度的内容特征的变化而对应调整,从而用户能够根据字幕样式的变化更加容易理解视频内容。
下面对字幕样式的转换处理过程进行说明。
在一些实施例中,针对多媒体文件关联的多条字幕应用的样式相同的情况(即字幕样式在整个多媒体文件的播放过程中保持不变),可以在执行图3示出的步骤S102之前,执行图5A示出的步骤S103A和步骤S104A,将结合图5A示出的步骤进行说明。
在步骤S103A中,获取多媒体文件的至少一个维度的内容特征。
这里,多媒体文件的至少一个维度的内容特征可以包括:风格(例如对于视频文件,对应的风格的类型可以包括喜剧、恐怖、悬疑、卡通等;对于音频文件,对应的风格的类型可以包括流行、摇滚等)、对象(例如多媒体文件中出现的人物、动物等)、场景、情节、色调。
在一些实施例中,可以通过以下方式实现上述的步骤S103A:调用内容特征识别模型对多媒体文件的内容进行内容特征识别处理,得到多媒体文件的至少一个维度的内容特征,其中,,内容特征识别模型是基于样本多媒体文件、以及针对样本多媒体文件的内容标注的标签进行训练得到的。
示例的,内容特征识别模型可以是单独的风格识别模型、场景识别模型、情节识别模型和色调识别模型,也可以是组合模型(例如能够同时对多媒体文件的风格和场景进行识别的模型),内容特征识别模型可以是神经网络模型(例如卷积神经网络、深度卷积神经网络、或者全连接神经网络等)、决策树模型、梯度提升树、多层感知机、以及支持向量机等,本申请实施例对内容特征识别模型的类型不作具体限定。
在另一些实施例中,当多媒体文件为视频文件时,可以通过以下方式实现上述的步骤S103A:针对视频文件中出现的目标对象执行以下处理:对目标对象所在的目标视频帧进行预处理(例如对目标视频帧的尺寸进行裁剪、以及对目标视频帧中的目标对象进行调整,此外当获取到多张目标视频帧时,可以确定每张目标视频帧中包括的目标对象的清晰度,并选取清晰度最高的目标视频帧执行后续的处理);对经过预处理后的目标视频帧进行特征提取(例如提取目标视频帧中用于描述图像纹理信息的小波特征),得到目标视频帧对应的图像特征;对图像特征进行降维处理(例如采用主成分分析方法提取图像特征的主要特征分量,实现图像特征的降维),并通过训练好的分类器对经过降维处理后的图像特征进行分类处理,得到目标对象的对象属性(例如目标对象的性别)。
在一些实施例中,当多媒体文件为视频文件时,还可以通过以下方式实现上述的步骤S103A:针对视频文件中出现的目标对象执行以下处理:提取目标对象所在的目标视频帧对应的局部二值模式特征(一种用来描述图像局部特征的算子,具有灰度不变性和旋转不变性等特点),并对局部二值模式特征进行降维处理;提取目标视频帧对应的方向梯度直方图特征(一种在计算机视觉和图像处理中用来进行物体检测的特征描述子),并对方向梯度直方图特征进行降维处理;对经过降维处理后的局部二值模式特征和方向梯度直方图图像进行典型相关分析处理(用于挖掘局部二值模式特征与方向梯度直方图特征之间的相关性),得到分析结果;对分析结果进行回归处理,得到目标对象的对象属性(例如目标对象的年龄)。
在另一些实施例中,当多媒体文件为视频文件时,还可以通过以下方式实现上述的步骤S103A:针对视频文件中出现的目标对象执行以下处理:对目标对象所在的目标视频帧进行规格化处理,并对经过规格化处理后的目标视频帧进行分区处理,得到多个子区域;提取每个子区域对应的局部二值模式特征,并对多个局部二值模式特征进行统计处理,得到目标视频帧对应的局部直方图统计特征;通过训练集局部特征库对局部直方图统计特征进行局部稀疏重构表示,并对局部稀疏重构表示结果进行局部重构残差加权识别处理,得到目标对象的对象属性(例如目标对象的情绪)。
在一些实施例中,承接上文,当视频文件中存在多个对象时,可以通过以下任意一种方式从多个对象中确定出目标对象:将视频文件中出现时间最长的对象确定为目标对象;将视频文件中符合用户偏好的对象(例如根据用户的历史观看记录确定出用户的用户画像,将与用户画像相似度最高的对象确定为符合用户偏好的对象)确定为目标对象;将视频文件中与用户互动相关的对象(例如用户曾经点赞或者转发过的对象)确定为目标对象。
此外,还需要说明的是,当多媒体文件为音频文件时,可以通过以下方式识别出音频文件中出现的目标对象的对象属性(例如性别、年龄、情绪等),例如可以根据声音的频率(女性发音的频率比较高,而男性发音的频率相对较低)来确定目标对象的性别;根据音调的高低(例如通常情况下小孩子的声带比较紧,因此音调较高,而随着年龄的增长,声带变得松弛,音调也会逐渐下降)来识别目标对象的年龄;根据说话的语速、音量等信息确定目标对象的情绪,例如当目标对象生气时,对应的音量会比较大、语速也相对较快。
在步骤S104A中,基于多媒体文件的至少一个维度的内容特征,对多媒体文件关联的多条原始字幕进行样式转换处理,得到多条新字幕。
这里,多条新字幕(多条新字幕的样式是相同的,例如都是基于识别出的多媒体文件的风格对多媒体文件关联的多条原始字幕进行样式转换处理得到)用于作为在人机交互界面中待显示的多条字幕(即作为在步骤S102中在人机交互界面中依次显示的多条字幕)。
在一些实施例中,可以通过以下方式实现上述的步骤S104A:基于多媒体文件的至少一个维度的内容特征对应的取值、以及多媒体文件关联的多条原始字幕调用字幕模型,得到多条新字幕,其中,字幕模型可以是作为生成模型,并与判别模型组成生成式对抗网络来进行训练得到的。
示例的,以多媒体文件为视频文件为例,在获取到视频文件的至少一个维度的内容特征(例如视频文件的风格,假设为喜剧)之后,可以基于视频文件的风格对应的取值、以及多媒体文件关联的多条原始字幕(假设多条原始字幕的字体均为楷体)调用字幕模型,得到多条新字幕(例如假设样式转换处理后得到的多条新字幕的字体均是幼圆,字体风格与喜剧适配,是偏卡通的,即在视频文件的播放过程中,在人机交互界面中依次显示的多条字幕的字体均是幼圆)。
在另一些实施例中,字幕模型也可以是通过其他方式训练得到的,例如可以对字幕模型进行单独训练,本申请实施例对字幕模型的训练方式不做具体限定。
此外,还需要说明的是,上述样式转换处理可以是针对图片格式的字幕的,例如可以将原始字体的图片(例如字幕内容的字体为楷体的图片)转换成与视频文件的风格适配的字体的图片(例如字幕内容的字体为华文彩云的图片);而对于文本格式的字幕,可以首先将文本格式的字幕转换成图片格式,再进行上述样式转换处理。
作为替换方案,可以直接针对文本格式的字幕进行样式转换处理,例如可以首先将原始样式的字幕的各种属性(例如字体、字号等)进行编码处理,得到对应的矩阵向量,接着对矩阵向量进行样式转换处理(例如可以将矩阵向量和视频文件的风格对应的取值输入字幕模型),得到新的矩阵向量(即与新样式的字幕对应的矩阵向量),随后基于新的矩阵向量进行解码处理,得到新样式的字幕(即与视频文件的风格适配的样式的字幕),最后使用新样式的字幕替换字幕文件中原始样式的字幕,并且文本格式的字幕更加利于保存和更新,例如修正文本错误。
在另一些实施例中,针对多媒体文件关联的多条字幕应用的样式不同的情况(即字幕样式在整个多媒体文件的播放过程中会发生变化),可以在执行图3示出的步骤S102之前,执行图5B示出的步骤S103B和步骤S104B,将结合图5B示出的步骤进行说明。
在步骤S103B中,获取多媒体文件中每个片段的至少一个维度的内容特征。
在一些实施例中,可以首先对多媒体文件进行划分(具体的划分过程可以参照上文的描述,本申请实施例在此不再赘述),得到多个片段,其中,每个片段关联有至少一条原始字幕(例如片段1关联有原始字幕1至原始字幕3、片段2关联有原始字幕4和原始字幕5),接着分别获取每个片段的至少一个维度的内容特征(片段的内容特征的获取方式与多媒体文件的内容特征的获取方式类似,可以参照上文多媒体文件的内容特征的获取方式实现,本申请实施例在此不再赘述)。
在步骤S104B中,针对每个片段执行以下处理:基于片段的至少一个维度的内容特征,对片段关联的至少一条原始字幕进行样式转换处理,得到至少一条新字幕。
这里,在对每个片段关联的至少一条原始字幕进行样式转换处理之后,可以将每个片段对应的至少一条新字幕组合得到多条新字幕,其中,多条新字幕的顺序是与多条原始字幕的顺序相同的,且多条新字幕作为在人机交互界面中待显示的多条字幕(即在步骤S102中在人机交互界面中依次显示的多条字幕)。
在一些实施例中,在获取到多媒体文件中的每个片段的至少一个维度的内容特征之后,可以针对每个片段执行以下处理:基于片段(例如片段A)的至少一个维度的内容特征对应的取值、以及片段A关联的至少一条原始字幕调用字幕模型,得到片段A关联的至少一条新字幕,接着还可以使用片段A关联的至少一条新字幕替换字幕文件中存储的片段A关联的至少一条原始字幕,如此,在后续多媒体文件的播放过程中,例如在播放至片段A时,可以从字幕文件中读取片段A关联的至少一条新字幕,并在人机交互界面中进行显示。
需要说明的是,以片段的内容特征为视频文件中出现的目标对象的情绪为例,在视频文件的播放过程中,目标对象的情绪可能会发生变化,即情绪属于动态维度的内容特征,在不同的片段中,目标对象的情绪可能是不同的,因此,在基于目标对象的情绪进行样式转换处理时,在经过样式转换处理后,不同片段关联的原始字幕经过转换处理得到的新字幕的样式可能是不同的(例如在片段1中目标对象的情绪为开心,经过样式转换处理得到的新字幕的字体为幼圆;在片段2中目标对象的情绪为悲伤,经过样式转换处理得到的新字幕的字体为华文彩云),也就是说,在视频文件的播放过程中,字幕样式会随着目标对象的情绪的变化而对应调整。
此外,还需要说明的是,针对同一片段(例如片段A)关联的多条字幕应用的样式不同的情况,还可以对片段A进行再次划分,得到多个子片段,接着获取片段A中每个子片段的至少一个维度的内容特征,随后针对每个子片段执行以下处理:基于子片段的至少一个维度的内容特征对应的取值、以及子片段关联的至少一条原始字幕调用字幕模型,得到子片段关联的至少一条新字幕,如此,当不同子片段对应的至少一个维度的内容特征不同时,不同子片段关联的至少一条新字幕的样式也是不同的,从而实现在播放同一片段的过程中,字幕样式也会发生变化。
在一些实施例中,字幕应用的样式还可以是与片段的多个维度的内容特征经过融合处理后得到的融合内容特征适配的,则可以通过以下方式实现上述的基于与片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与片段关联的至少一条字幕:将片段的多个维度的内容特征进行融合处理,得到融合内容特征;基于融合内容特征对与片段关联的至少一条原始字幕进行样式转换处理,得到至少一条新字幕;其中,至少一条新字幕用于作为在人机交互界面中待显示的至少一条字幕。
示例的,以多媒体文件为视频文件为例,首先获取视频文件的多个维度的内容特征(例如视频文件的风格、视频文件的色调等),接着对视频文件的风格和视频文件的色调进行融合处理(例如对视频文件的风格对应的取值和视频文件的色调对应的取值进行求和),得到融合内容特征,随后基于融合内容特征对应的取值、以及片段关联的至少一条原始字幕调用字幕模型,得到至少一条新字幕(新字幕应用的样式是同时与视频文件的风格、以及视频文件的色调适配的),如此,通过综合考虑视频文件的多个维度的内容特征,使得最终呈现的字幕能够与视频内容更加贴合,进一步提升了用户的观看体验。
在另一些实施例中,字幕应用的样式还可以是同时与多媒体文件的内容、以及用户画像相关的,例如可以将用户(即观看者)对多媒体文件的情感进行量化,根据用户历史的观看记录确定出用户的用户画像,进而计算出用户对于当前多媒体文件的偏好程度,最后基于偏好程度和多媒体文件的至少一个维度的内容特征综合确定出字幕的样式(例如可以将偏好程度对应的取值和多媒体文件的至少一个维度的内容特征的取值进行融合处理(例如将两个取值进行相加),并基于融合处理得到的取值、以及多媒体文件关联的多条原始字幕调用字幕模型,得到多条新字幕,即多条新字幕的样式是同时与多媒体文件的内容、以及用户的用户画像适配的,也就是说,针对同一个多媒体文件,在不同用户的用户终端显示的字幕也可以是不同的),如此,通过综合考虑用户自身的因素、以及多媒体文件的内容特征,使得最终呈现的字幕能够更加符合用户个性化的需求,进一步提升了用户的观看体验。
本申请实施例提供的多媒体文件的字幕处理方法,在播放多媒体文件的过程中,在人机交互界面中显示与多媒体文件的内容相关的样式的字幕,通过丰富字幕的表现形式来实现多媒体文件相关信息的多样化的展示效果,能够适用于多媒体文件的不同应用场景的多样化的字幕展示需求,增进了信息展示的效率和效果,同时也提高了用户的观看体验。
下面,将说明本申请实施例在一个实际的视频文件播放场景中的示例性应用。
本申请实施例提供一种多媒体文件的字幕处理方法,可以针对视频文件的内容进行理解(例如挖掘视频文件中出现的人物的人物属性、视频文件的整体风格等),以实时生成相关样式的字幕,从而提高用户的观看体验。
本申请实施例提供的多媒体文件的字幕处理方法可以应用于各大视频网站的字幕生成,可根据视频文件的内容(包括视频文件的风格识别、以及视频文件中出现的人物的人物属性识别,例如识别人物的年龄、性别和情绪等),实时生成与识别出的视频文件的内容相关样式的字幕。
示例的,参见图6A至图6C,图6A至图6C是本申请实施例提供的多媒体文件的字幕处理方法的应用场景示意图,其中,图6A中示出的视频601的风格属于动画片,整体风格可爱卡通,因此,视频601关联的字幕602也是这种风格,此外,字幕602的颜色也可以与背景的主色调相适应(例如当背景为天空时,字幕602的颜色可以为蓝色);图6B中示出的视频603的风格属于喜剧片,整体风格偏搞笑,因此,视频603关联的字幕604也是偏卡通的,与视频603的风格适配;图6C中示出的视频605的风格属于英雄片,整体风格比较严肃,因此,视频605关联的字幕606的字体风格也是更加严肃、正经。也就是说,不同风格的视频对应的字幕的样式是不同的,且与视频的风格贴合度比较高,使用户在观看视频时有更好的沉浸式体验。
本申请实施例提供的多媒体文件的字幕处理方法主要涉及两个部分:视频文件的内容理解、以及基于视频内容的理解结果实时生成相关样式的视频字幕,下面首先对视频内容的理解过程进行说明。
示例的,参见图7,图7是本申请实施例提供的视频内容维度示意图,如图7所示,本申请实施例针对视频内容的理解主要涉及以下几个维度:人物属性(包括视频中出现的人物的人物性别、年龄、情绪等)和视频整体的风格(风格的类型包括卡通、喜剧、恐怖、悬疑等),下面首先对人物属性的识别过程进行说明。
(1)人物属性:
人物属性的识别包括人物性别的识别、人物年龄的识别和人物情绪的识别。
示例的,人物性别的识别可以采用(但不局限于)基于Adaboost(一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器))和支持向量机(SVM,Support VectorMachine)的人脸性别分类算法,如图8所示,基于Adaboost+SVM的人脸性别分类算法主要分为两个阶段:(a)训练阶段:通过对样本图像进行预处理,并提取经过预处理后的样本图像的Gabor(一种可以用来描述图像纹理信息的特征)小波特征,通过Adaboost分类器进行特征降维,最后对SVM分类器进行训练;(b)测试阶段:通过对测试图像进行预处理,并提取经过预处理后的测试图像的Gabor小波特征,并通过Adaboost分类器进行特征降维,最后用训练好的SVM分类器进行识别,输出识别结果(即人物的性别)。
示例的,人物的年龄估计可以采用(但不局限于)融合局部二值化模式(LBP,LocalBinary Patterns,一种用来描述图像局部纹理特征的算子,具有旋转不变性和灰度不变性等显著的优点)和方向梯度直方图(HOG,Histogram of Oriented Gradient,一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,HOG特征通过计算和统计图像局部区域的梯度方向直方图来构成特征)特征的人脸年龄估计算法,如图9所示,该算法提取与年龄变化关系紧密的人脸的局部统计特征(即LBP特征和HOG特征),接着对所提取的特征进行降维处理(例如使用主成分分析(PCA,Principal Component Analysis)的方法对LBP特征和HOG特征进行降维处理),并使用典型相关分析(CCA,Canonical Correlation Analysis)的方法将两个降维后的特征进行融合,最后通过支持向量机回归(SVR,Support VectorRegression)的方法对人脸库进行训练和测试。
示例的,人物情绪的识别可以采用(但不局限于)融合LBP特征和局部稀疏表示的人脸表情识别算法,如图10所示,该算法的步骤如下:首先,对规格化后的训练集人脸图像进行特征分区,对于每个人脸分区计算该区域的LBP特征,并采用直方图统计方法整合该区域的特征向量,形成由特定人脸的局部特征组成的训练集局部特征库;其次,对于测试人脸,同样进行人脸图像规格化、人脸分区、局部LBP特征计算和局部直方图统计操作;最后,对于测试人脸的局部直方图统计特征,利用训练集局部特征库进行局部稀疏重构表示,并采用局部稀疏重构残差加权方法进行最终人脸表情分类识别结果。
(2)视频风格
视频风格可以采用卷积神经网络(CNN,Convolutional Neural Networks)模型进行识别,其中,训练数据可以来自视频网站提供的视频文件,以及风格分类标签(一般由运营人员进行标识),如图11所示,将视频中连续的L(L为大于1的正整数)帧图像输入到训练后的卷积神经网络模型中,在经过卷积(Convolution)和池化(Pooling)处理得到每帧图像对应的特征图之后,采用Gram矩阵计算两两特征图之间的相关性来代表视频的风格信息,最后连接到回归函数(例如Softmax函数)上,输出不同风格分别对应的概率,将最大概率对应的风格确定为视频的风格。
下面对字幕的生成过程进行说明。
字幕的生成可以采用生成式对抗网络(GAN,Generative Adversarial Networks)模型实现,其中,GAN中包含两个模型:生成模型(Generative Model)和判别模型(Discriminative Model),通过生成模型和判别模型相互对抗来达到最后的生成结果。
示例的,参见图12,图12是本申请实施例提供的生成式对抗网络模型的训练流程示意图,具体的算法流程如下:
(1)将原始字体图片x和转换的目标域c(目标域c与视频内容理解出的维度对应)结合输入到生成模型G来生成假的字体图片x′(即基于原始字体图片和目标域c对应的取值,生成与理解出的视频内容维度适配的字体图片);
(2)将假的字体图片x′和原始字体图片x分别输入到判别模型D,判别模型D需要判断输入的字体图片是否真实,还需要判断字体图片来自哪个域;
(3)将生成的假的字体图片x′和原始字体图片x对应的域信息(即源域c′)结合起来输入到生成模型G,要求能够重建出原始字体图片x。
需要说明的是,如果原始的字幕是文本形式,例如srt、ass等类型的字幕文件,则可以首先将文本格式的字幕转换为图片格式,然后再进行上述处理。
本申请实施例提供的根据视频内容实时生成字幕的方案,具有以下有益效果:
(1)字幕样式与视频内容贴合度高,不突兀;
(2)字幕样式更加符合视频内容、或者视频中出现的角色的角色特征,更有沉浸感;
(3)字幕样式由机器(例如终端设备或者服务器)自动生成,不需要购买字幕库版权,节省了版权成本。
下面继续说明本申请实施例提供的多媒体文件的字幕处理装置465的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器460的多媒体文件的字幕处理装置465中的软件模块可以包括:播放模块4651和显示模块4652。
播放模块4651,用于响应于播放触发操作,播放多媒体文件,其中,多媒体文件关联有多条字幕,多媒体文件的类型包括视频文件和音频文件;显示模块4652,用于在播放多媒体文件的过程中,在人机交互界面中依次显示多条字幕,其中,多条字幕应用的样式与多媒体文件的内容相关。
在一些实施例中,显示模块4652,还用于在人机交互界面中依次显示均应用有样式的多条字幕;其中,样式与多媒体文件的至少一个维度的内容特征适配,且至少一个维度的内容特征包括:风格、对象、场景、情节、色调。
在一些实施例中,多媒体文件的字幕处理装置465还包括获取模块4653,用于获取多媒体文件的至少一个维度的内容特征;多媒体文件的字幕处理装置465还包括转换模块4654,用于基于至少一个维度的内容特征,对多媒体文件关联的多条原始字幕进行样式转换处理,得到多条新字幕;其中,多条新字幕用于作为在人机交互界面中待显示的多条字幕。
在一些实施例中,转换模块4654,还用于基于至少一个维度的内容特征对应的取值、以及多媒体文件关联的多条原始字幕调用字幕模型,得到多条新字幕;其中,字幕模型是作为生成模型,并与判别模型组成生成式对抗网络来进行训练得到的。
在一些实施例中,多媒体文件包括多个片段,片段的类型包括以下至少之一:对象片段、场景片段、情节片段;显示模块4652,还用于在播放多媒体文件的每个片段的过程中执行以下处理:基于与片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与片段关联的至少一条字幕。
在一些实施例中,获取模块4653,还用于获取片段的静态维度的内容特征,其中,对象片段的静态维度的内容特征包括对象片段中发声对象的以下对象属性至少之一:角色类型、性别、年龄;场景片段的静态维度的特征包括场景片段的场景类型;情节片段的静态维度的特征包括情节片段的情节进度;显示模块4652,还用于基于与片段的静态维度的内容特征适配的样式,在人机交互界面中同步显示与片段关联的至少一条字幕,其中,样式在片段的播放过程中保持不变。
在一些实施例中,片段包括多个子片段,多个子片段具有片段的静态维度的内容特征、以及片段的动态维度的内容特征,且不同子片段具有的动态维度的内容特征不同;显示模块4652,还用于在播放片段的每个子片段的过程中执行以下处理:基于与子片段具有的静态维度的内容特征和动态维度的内容特征适配的样式,显示与子片段关联的至少一条字幕。
在一些实施例中,对象片段的静态维度的内容特征包括以下对象属性至少之一:对象片段中发声对象的角色类型、性别、年龄;对象片段的动态维度的内容特征包括以下对象属性:对象片段中发声对象的情绪;情节片段的静态维度的内容特征包括情节片段的情节类型,情节片段的动态维度的内容特征包括以下至少之一:情节片段出现的不同场景的场景类型、情节片段出现的不同发声对象的对象属性;场景片段的静态维度的内容特征包括:场景片段涉及的场景的类型;场景片段的动态维度的内容特征包括以下至少之一:场景片段中出现的不同发声对象的对象属性,场景片段中出现的不同情节的类型。
在一些实施例中,当至少一个维度为多个维度时,多媒体文件的字幕处理装置465还包括融合模块4655,用于将片段的多个维度的内容特征进行融合处理,得到融合内容特征;转换模块4654,还用于基于融合内容特征对与片段关联的至少一条原始字幕进行样式转换处理,得到至少一条新字幕;其中,至少一条新字幕用于作为在人机交互界面中待显示的至少一条字幕。
在一些实施例中,获取模块4653,还用于调用内容特征识别模型对多媒体文件的内容进行内容特征识别处理,得到多媒体文件的至少一个维度的内容特征;其中,内容特征识别模型是基于样本多媒体文件、以及针对样本多媒体文件的内容标注的标签进行训练得到的。
在一些实施例中,当多媒体文件为视频文件时,获取模块4653,还用于针对视频文件中出现的目标对象执行以下处理:对目标对象所在的目标视频帧进行预处理;对经过预处理后的目标视频帧进行特征提取,得到目标视频帧对应的图像特征;对图像特征进行降维处理,并通过训练好的分类器对经过降维处理后的图像特征进行分类处理,得到目标对象的对象属性。
在一些实施例中,当多媒体文件为视频文件时,获取模块4653,还用于针对视频文件中出现的目标对象执行以下处理:提取目标对象所在的目标视频帧对应的局部二值模式特征,并对局部二值模式特征进行降维处理;提取目标视频帧对应的方向梯度直方图特征,并对方向梯度直方图特征进行降维处理;对经过降维处理后的局部二值模式特征和方向梯度直方图图像进行典型相关分析处理,得到分析结果;对分析结果进行回归处理,得到目标对象的对象属性。
在一些实施例中,当多媒体文件为视频文件时,获取模块4653,还用于针对视频文件中出现的目标对象执行以下处理:对目标对象所在的目标视频帧进行规格化处理,并对经过规格化处理后的目标视频帧进行分区处理,得到多个子区域;提取每个子区域对应的局部二值模式特征,并对多个局部二值模式特征进行统计处理,得到目标视频帧对应的局部直方图统计特征;通过训练集局部特征库对局部直方图统计特征进行局部稀疏重构表示,并对局部稀疏重构表示结果进行局部重构残差加权识别处理,得到目标对象的对象属性。
在一些实施例中,当视频文件中出现多个对象时,多媒体文件的字幕处理装置465还包括确定模块4656,用于通过以下任意一种方式从多个对象中确定目标对象:将视频文件中出现时间最长的对象确定为目标对象;将视频文件中符合用户偏好的对象确定为目标对象;将视频文件中与用户互动相关的对象确定为目标对象。
需要说明的是,本申请实施例中关于装置的描述,与上文中多媒体文件的字幕处理方法的实现是类似的,并具有相似的有益效果,因此不做赘述。对于本申请实施例提供的多媒体文件的字幕处理装置中未尽的技术细节,可以根据图3、图5A、或图5B任一附图的说明而理解。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的多媒体文件的字幕处理方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的多媒体文件的字幕处理方法,例如,如图3、图5A、或图5B示出的多媒体文件的字幕处理方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
综上所述,本申请实施例在播放多媒体文件的过程中,在人机交互界面中显示与多媒体文件的内容相关的样式的字幕,通过丰富字幕的表现形式来实现多媒体文件相关信息的多样化的展示效果,能够适用于多媒体文件的不同应用场景的多样化的字幕展示需求,同时提高了信息传播的效果和用户的观看体验。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (18)
1.一种多媒体文件的字幕处理方法,其特征在于,所述方法包括:
响应于播放触发操作,播放多媒体文件,其中,所述多媒体文件关联有多条字幕,所述多媒体文件的类型包括视频文件和音频文件,以及
在播放所述多媒体文件的过程中,在人机交互界面中依次显示所述多条字幕,其中,所述多条字幕应用的样式与所述多媒体文件的内容相关。
2.根据权利要求1所述的方法,其特征在于,所述在人机交互界面中依次显示所述多条字幕,包括:
在人机交互界面中依次显示均应用有所述样式的所述多条字幕;其中,所述样式与所述多媒体文件的至少一个维度的内容特征适配,且所述至少一个维度的内容特征包括:风格、对象、场景、情节、色调。
3.根据权利要求2所述的方法,其特征在于,在人机交互界面中依次显示所述多条字幕之前,所述方法还包括:
获取所述多媒体文件的至少一个维度的内容特征;
基于所述至少一个维度的内容特征,对所述多媒体文件关联的多条原始字幕进行样式转换处理,得到多条新字幕;其中,所述多条新字幕用于作为在所述人机交互界面中待显示的所述多条字幕。
4.根据权利要求3所述的方法,其特征在于,所述基于所述至少一个维度的内容特征,对所述多媒体文件关联的多条原始字幕进行样式转换处理,包括:
基于所述至少一个维度的内容特征对应的取值、以及所述多媒体文件关联的多条原始字幕调用字幕模型,得到多条新字幕;
其中,所述字幕模型是作为生成模型,并与判别模型组成生成式对抗网络来进行训练得到的。
5.根据权利要求1所述的方法,其特征在于,
所述多媒体文件包括多个片段,所述片段的类型包括以下至少之一:对象片段、场景片段、情节片段;
所述在人机交互界面中依次显示所述多条字幕,包括:
在播放所述多媒体文件的每个所述片段的过程中执行以下处理:
基于与所述片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与所述片段关联的至少一条字幕。
6.根据权利要求5所述的方法,其特征在于,所述基于与所述片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与所述片段关联的至少一条字幕,包括:
获取所述片段的静态维度的内容特征,其中,所述对象片段的静态维度的内容特征包括所述对象片段中发声对象的以下对象属性至少之一:角色类型、性别、年龄;所述场景片段的静态维度的特征包括所述场景片段的场景类型;所述情节片段的静态维度的特征包括所述情节片段的情节进度;
基于与所述片段的静态维度的内容特征适配的样式,在人机交互界面中同步显示与所述片段关联的至少一条字幕,其中,所述样式在所述片段的播放过程中保持不变。
7.根据权利要求5所述的方法,其特征在于,
所述片段包括多个子片段,所述多个子片段具有所述片段的静态维度的内容特征、以及所述片段的动态维度的内容特征,且不同子片段具有的动态维度的内容特征不同;
所述基于与所述片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与所述片段关联的至少一条字幕,包括:
在播放所述片段的每个子片段的过程中执行以下处理:
基于与所述子片段具有的静态维度的内容特征和动态维度的内容特征适配的样式,显示与所述子片段关联的至少一条字幕。
8.根据权利要求7所述的方法,其特征在于,
其中,所述对象片段的静态维度的内容特征包括以下对象属性至少之一:所述对象片段中发声对象的角色类型、性别、年龄;所述对象片段的动态维度的内容特征包括以下对象属性:所述对象片段中发声对象的情绪;
其中,所述情节片段的静态维度的内容特征包括所述情节片段的情节类型,所述情节片段的动态维度的内容特征包括以下至少之一:所述情节片段出现的不同场景的场景类型、所述情节片段出现的不同发声对象的对象属性;
其中,所述场景片段的静态维度的内容特征包括:所述场景片段涉及的场景的类型;所述场景片段的动态维度的内容特征包括以下至少之一:所述场景片段中出现的不同发声对象的对象属性,所述场景片段中出现的不同情节的类型。
9.根据权利要求5所述的方法,其特征在于,
当所述至少一个维度为多个维度时,所述基于与所述片段的至少一个维度的内容特征适配的样式,在人机交互界面中依次显示与所述片段关联的至少一条字幕,包括:
将所述片段的多个维度的内容特征进行融合处理,得到融合内容特征;
基于所述融合内容特征对与所述片段关联的至少一条原始字幕进行样式转换处理,得到至少一条新字幕;其中,所述至少一条新字幕用于作为在所述人机交互界面中待显示的所述至少一条字幕。
10.根据权利要求3所述的方法,其特征在于,所述获取所述多媒体文件的至少一个维度的内容特征,包括:
调用内容特征识别模型对所述多媒体文件的内容进行内容特征识别处理,得到所述多媒体文件的至少一个维度的内容特征;
其中,所述内容特征识别模型是基于样本多媒体文件、以及针对所述样本多媒体文件的内容标注的标签进行训练得到的。
11.根据权利要求3所述的方法,其特征在于,
当所述多媒体文件为所述视频文件时,所述获取所述多媒体文件的至少一个维度的内容特征,包括:
针对所述视频文件中出现的目标对象执行以下处理:
对所述目标对象所在的目标视频帧进行预处理;
对经过预处理后的所述目标视频帧进行特征提取,得到所述目标视频帧对应的图像特征;
对所述图像特征进行降维处理,并通过训练好的分类器对经过降维处理后的所述图像特征进行分类处理,得到所述目标对象的对象属性。
12.根据权利要求3所述的方法,其特征在于,
当所述多媒体文件为所述视频文件时,所述获取所述多媒体文件的至少一个维度的内容特征,包括:
针对所述视频文件中出现的目标对象执行以下处理:
提取所述目标对象所在的目标视频帧对应的局部二值模式特征,并对所述局部二值模式特征进行降维处理;
提取所述目标视频帧对应的方向梯度直方图特征,并对所述方向梯度直方图特征进行降维处理;
对经过降维处理后的所述局部二值模式特征和所述方向梯度直方图图像进行典型相关分析处理,得到分析结果;
对所述分析结果进行回归处理,得到所述目标对象的对象属性。
13.根据权利要求3所述的方法,其特征在于,
当所述多媒体文件为所述视频文件时,所述获取所述多媒体文件的至少一个维度的内容特征,包括:
针对所述视频文件中出现的目标对象执行以下处理:
对所述目标对象所在的目标视频帧进行规格化处理,并对经过规格化处理后的所述目标视频帧进行分区处理,得到多个子区域;
提取每个所述子区域对应的局部二值模式特征,并对多个所述局部二值模式特征进行统计处理,得到所述目标视频帧对应的局部直方图统计特征;
通过训练集局部特征库对所述局部直方图统计特征进行局部稀疏重构表示,并对局部稀疏重构表示结果进行局部重构残差加权识别处理,得到所述目标对象的对象属性。
14.根据权利要求11-13任一项所述的方法,其特征在于,
当所述视频文件中出现多个对象时,通过以下任意一种方式从所述多个对象中确定所述目标对象:
将所述视频文件中出现时间最长的对象确定为所述目标对象;
将所述视频文件中符合用户偏好的对象确定为所述目标对象;
将所述视频文件中与用户互动相关的对象确定为所述目标对象。
15.一种多媒体文件的字幕处理装置,其特征在于,所述装置包括:
播放模块,用于响应于播放触发操作,播放多媒体文件,其中,所述多媒体文件关联有多条字幕,所述多媒体文件的类型包括视频文件和音频文件;
显示模块,用于在播放所述多媒体文件的过程中,在人机交互界面中依次显示所述多条字幕,其中,所述多条字幕应用的样式与所述多媒体文件的内容相关。
16.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至14任一项所述的多媒体文件的字幕处理方法。
17.一种计算机可读存储介质,存储有可执行指令,其特征在于,所述可执行指令被处理器执行时实现权利要求1至14任一项所述的多媒体文件的字幕处理方法。
18.一种计算机程序产品,包括计算机程序或指令,其特征在于,所述计算机程序或指令被处理器执行时实现权利要求1至14任一项所述的多媒体文件的字幕处理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111114803.6A CN114286154A (zh) | 2021-09-23 | 2021-09-23 | 多媒体文件的字幕处理方法、装置、电子设备及存储介质 |
PCT/CN2022/113257 WO2023045635A1 (zh) | 2021-09-23 | 2022-08-18 | 多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
US18/320,302 US20230291978A1 (en) | 2021-09-23 | 2023-05-19 | Subtitle processing method and apparatus of multimedia file, electronic device, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111114803.6A CN114286154A (zh) | 2021-09-23 | 2021-09-23 | 多媒体文件的字幕处理方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114286154A true CN114286154A (zh) | 2022-04-05 |
Family
ID=80868555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111114803.6A Pending CN114286154A (zh) | 2021-09-23 | 2021-09-23 | 多媒体文件的字幕处理方法、装置、电子设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230291978A1 (zh) |
CN (1) | CN114286154A (zh) |
WO (1) | WO2023045635A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115373786A (zh) * | 2022-08-25 | 2022-11-22 | 北京字跳网络技术有限公司 | 多媒体播放方法、装置、设备和存储介质 |
WO2023045635A1 (zh) * | 2021-09-23 | 2023-03-30 | 腾讯科技(深圳)有限公司 | 多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
CN117319757A (zh) * | 2023-09-08 | 2023-12-29 | 北京优酷科技有限公司 | 一种字幕展示方法、装置、电子设备及计算机存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140278370A1 (en) * | 2013-03-15 | 2014-09-18 | Cyberlink Corp. | Systems and Methods for Customizing Text in Media Content |
KR20180038318A (ko) * | 2016-10-06 | 2018-04-16 | 주식회사 카카오 | 자막 생성 시스템, 자막 생성 방법, 그리고 콘텐트 생성 프로그램 |
CN108924599A (zh) * | 2018-06-29 | 2018-11-30 | 北京优酷科技有限公司 | 视频字幕显示方法及装置 |
CN110198468A (zh) * | 2019-05-15 | 2019-09-03 | 北京奇艺世纪科技有限公司 | 一种视频字幕显示方法、装置及电子设备 |
CN112084841A (zh) * | 2020-07-27 | 2020-12-15 | 齐鲁工业大学 | 跨模态的图像多风格字幕生成方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101534377A (zh) * | 2008-03-13 | 2009-09-16 | 扬智科技股份有限公司 | 根据节目内容自动改变字幕设定的方法与系统 |
US8730301B2 (en) * | 2010-03-12 | 2014-05-20 | Sony Corporation | Service linkage to caption disparity data transport |
CN103200463A (zh) * | 2013-03-27 | 2013-07-10 | 天脉聚源(北京)传媒科技有限公司 | 一种视频摘要生成方法和装置 |
CN108055592A (zh) * | 2017-11-21 | 2018-05-18 | 广州视源电子科技股份有限公司 | 字幕显示方法、装置、移动终端及存储介质 |
CN108833990A (zh) * | 2018-06-29 | 2018-11-16 | 北京优酷科技有限公司 | 视频字幕显示方法及装置 |
CN111277910B (zh) * | 2020-03-07 | 2022-03-22 | 咪咕互动娱乐有限公司 | 弹幕显示方法、装置、电子设备及存储介质 |
CN114286154A (zh) * | 2021-09-23 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 多媒体文件的字幕处理方法、装置、电子设备及存储介质 |
-
2021
- 2021-09-23 CN CN202111114803.6A patent/CN114286154A/zh active Pending
-
2022
- 2022-08-18 WO PCT/CN2022/113257 patent/WO2023045635A1/zh unknown
-
2023
- 2023-05-19 US US18/320,302 patent/US20230291978A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140278370A1 (en) * | 2013-03-15 | 2014-09-18 | Cyberlink Corp. | Systems and Methods for Customizing Text in Media Content |
KR20180038318A (ko) * | 2016-10-06 | 2018-04-16 | 주식회사 카카오 | 자막 생성 시스템, 자막 생성 방법, 그리고 콘텐트 생성 프로그램 |
CN108924599A (zh) * | 2018-06-29 | 2018-11-30 | 北京优酷科技有限公司 | 视频字幕显示方法及装置 |
CN110198468A (zh) * | 2019-05-15 | 2019-09-03 | 北京奇艺世纪科技有限公司 | 一种视频字幕显示方法、装置及电子设备 |
CN112084841A (zh) * | 2020-07-27 | 2020-12-15 | 齐鲁工业大学 | 跨模态的图像多风格字幕生成方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023045635A1 (zh) * | 2021-09-23 | 2023-03-30 | 腾讯科技(深圳)有限公司 | 多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
CN115373786A (zh) * | 2022-08-25 | 2022-11-22 | 北京字跳网络技术有限公司 | 多媒体播放方法、装置、设备和存储介质 |
CN117319757A (zh) * | 2023-09-08 | 2023-12-29 | 北京优酷科技有限公司 | 一种字幕展示方法、装置、电子设备及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20230291978A1 (en) | 2023-09-14 |
WO2023045635A1 (zh) | 2023-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111260545B (zh) | 生成图像的方法和装置 | |
CN111209440B (zh) | 一种视频播放方法、装置和存储介质 | |
CN114286154A (zh) | 多媒体文件的字幕处理方法、装置、电子设备及存储介质 | |
CN112449253B (zh) | 交互式视频生成 | |
US20140255003A1 (en) | Surfacing information about items mentioned or presented in a film in association with viewing the film | |
CN114401438A (zh) | 虚拟数字人的视频生成方法及装置、存储介质、终端 | |
KR20220000758A (ko) | 영상 검출 장치 및 그 동작 방법 | |
CN111626049A (zh) | 多媒体信息的标题修正方法、装置、电子设备及存储介质 | |
CN117609550B (zh) | 视频标题生成方法和视频标题生成模型的训练方法 | |
CN117372570A (zh) | 广告图像生成方法、装置 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN115359409A (zh) | 视频拆分方法、装置、计算机设备和存储介质 | |
CN114529635A (zh) | 一种图像生成方法、装置、存储介质及设备 | |
CN114007145A (zh) | 一种字幕显示方法及显示设备 | |
CN115935049A (zh) | 基于人工智能的推荐处理方法、装置及电子设备 | |
US20230326369A1 (en) | Method and apparatus for generating sign language video, computer device, and storage medium | |
CN117689752A (zh) | 文学作品插图生成方法、装置、设备及存储介质 | |
EP4345814A1 (en) | Video-generation system | |
WO2024066549A1 (zh) | 一种数据处理方法及相关设备 | |
US10242252B2 (en) | Expression recognition tag | |
CN110324702B (zh) | 视频播放过程中的信息推送方法和装置 | |
CN113312516B (zh) | 一种视频处理方法及相关装置 | |
CN117009577A (zh) | 一种视频数据处理方法、装置、设备及可读存储介质 | |
CN112165626A (zh) | 图像处理方法、资源获取方法、相关设备及介质 | |
CN113836328B (zh) | 图像数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40071966 Country of ref document: HK |