CN116156247B - 视频处理方法、装置、电子设备及存储介质 - Google Patents

视频处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116156247B
CN116156247B CN202310124901.0A CN202310124901A CN116156247B CN 116156247 B CN116156247 B CN 116156247B CN 202310124901 A CN202310124901 A CN 202310124901A CN 116156247 B CN116156247 B CN 116156247B
Authority
CN
China
Prior art keywords
video
text
processed
information
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310124901.0A
Other languages
English (en)
Other versions
CN116156247A (zh
Inventor
夏魁
李聪
汤野骏
李家宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202310124901.0A priority Critical patent/CN116156247B/zh
Publication of CN116156247A publication Critical patent/CN116156247A/zh
Application granted granted Critical
Publication of CN116156247B publication Critical patent/CN116156247B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Character Input (AREA)

Abstract

本公开关于一种视频处理方法、装置、电子设备及存储介质,所述方法包括:获取待处理视频中出现的多个文本信息;确定各个文本信息在所述待处理视频中的文本布局信息;将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性;所述功能属性用于表征每个文本信息的类型,所述来源属性用于表征所述文本信息的来源。该方法通过融合视频中文本的视觉、位置和文本等多种模态的信息,来实现对视频中文本的多个角度多个层次的分析的方法,可以显著提高对视频内容理解的准确度。

Description

视频处理方法、装置、电子设备及存储介质
技术领域
本公开涉及互联网的技术领域,尤其涉及一种视频处理方法、装置、电子设备、存储介质及程序产品。
背景技术
随着短视频类媒体的兴起,一大批针对短视频内容理解的多模态算法应运而生,文本作为传达视频信息的重要载体,对视频的智能分析起着十分重要的作用。视频的多模态标签分类、搜索、广告算法、推荐算法都十分依赖于视频中的文本信息。
传统的视频文本分析技术主要是通过对视频进行抽帧,然后通过OCR(光学字符识别)算法获取其中的文本信息,然后提供给下游的算法做进一步地分析。然而,由于视频中的内容较多,通过OCR算法得到的结果中会存在大量噪音,这些噪音往往会干扰视频的主题表达,导致无法进行正确的主题判断。在短视频领域,由于视频抽帧算法的随机性以及创作内容的多样性,文本的表现形式的不确定性更大,噪音更复杂,导致传统分析方法并不能很好地进行视频中的文本分析。
发明内容
本公开提供一种视频处理方法、装置、电子设备、存储介质及程序产品,以至少解决相关技术中对视频内容分析不准确的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种视频处理方法,包括:
获取待处理视频中出现的多个文本信息;
确定各个文本信息在所述待处理视频中的文本布局信息;所述文本布局信息用于表征所述各个文本信息对应的文本框在所述待处理视频中的位置信息;
将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性;所述功能属性用于表征每个文本信息的类型,所述来源属性用于表征所述文本信息的来源。
在一示例性实施例中,所述将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性之前,还包括:
基于所述待处理视频中出现的多个文本信息,对所述待处理视频进行抽帧处理,得到所述待处理视频的多个目标视频帧;
所述将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性,包括:
将所述待处理视频包含的各个目标视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性。
在一示例性实施例中,所述基于所述待处理视频中出现的多个文本信息,对所述待处理视频进行抽帧处理,得到所述待处理视频的多个目标视频帧,包括:
确定当前目标视频帧集合以及所述当前目标视频帧集合已覆盖的文本信息;
遍历其他视频帧,得到包含最多未覆盖的文本信息的新的目标视频帧;所述其他视频帧表示所述待处理视频中除所述当前目标视频帧集合中的目标视频帧之外的视频帧,所述未覆盖文本信息表示所述待处理视频中出现的多个文本信息中除所述已覆盖的文本信息之外的文本信息;
将所述新的目标视频帧添加至所述当前目标视频帧集合,得到新的当前目标视频帧集合,并返回确定当前目标视频帧集合中已覆盖文本信息的步骤,直至得到的新的当前目标视频帧集合包含所述待处理视频中出现的所有文本信息,将包含所有文本信息的新的当前目标视频帧集合中的各个目标视频帧,确定为所述多个目标视频帧。
在一示例性实施例中,所述确定各个文本信息在所述待处理视频中的文本布局信息,包括:
获取所述各个文本信息在所述待处理视频中的文本框位置信息;
基于所述各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;
根据所述各个文本信息对应文本框的倾斜信息和所述各个文本信息的文本框位置信息,得到所述各个文本信息的文本布局信息。
在一示例性实施例中,所述属性分类模型包括特征提取子模型、功能属性分类器和来源属性分类器;
所述将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性,还包括:
将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入所述特征提取子模型进行特征提取处理,得到所述特征提取子模型的第一层级的输出特征和第二层级的输出特征;其中,第二层级在所述特征提取子模型中的层级深度大于第一层级在所述特征提取子模型中的层级深度;
将所述第一层级的输出特征,输入所述来源属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的来源属性;
将所述第二层级的输出特征,输入所述功能属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性。
在一示例性实施例中,所述功能属性分类器包括初级分类器和次级分类器;
所述将所述第二层级的输出特征,输入所述功能属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性,包括:
通过所述功能属性分类器中的初级分类器,对所述第二层级的输出特征进行初次分类处理,得到所述待处理视频中的每个文本信息对应的初级功能信息;
通过所述功能属性分类器中的次级分类器,对所述初级功能信息进行再次分类处理,得到所述待处理视频中的每个文本信息对应的功能属性。
在一示例性实施例中,所述获取待处理视频中出现的多个文本信息,包括:
通过视频文字识别模型,对待处理视频进行文字识别处理,得到所述待处理视频中出现的多个文本信息;或者,
通过图像文字识别模型,分别对所述待处理视频包含的各个视频帧进行文字识别处理,得到所述待处理视频中出现的多个文本信息。
在一示例性实施例中,所述属性分类模型的训练过程包括:
获取样本数据集;所述样本数据集包括样本视频、样本视频中出现的多个样本文本信息、各个样本文本信息在对应样本视频帧中的文本布局信息,以及各个样本文本信息的功能属性标签和来源属性标签;
将所述样本视频包含的各个样本视频帧、所述各个样本文本信息以及所述各个样本文本信息的文本布局信息,输入待训练的属性分类模型进行分类处理,得到针对每个样本文本信息的预测功能属性和预测来源属性;
基于所述预测功能属性与所述功能属性标签之间的第一差异信息,以及所述预测来源属性与所述来源属性标签之间的第二差异信息,对所述待训练的属性分类模型进行训练,得到训练完成的属性分类模型。
根据本公开实施例的第二方面,提供一种视频处理装置,包括:
文本获取单元,被配置为执行获取待处理视频中出现的多个文本信息;
布局确定单元,被配置为执行确定各个文本信息在所述待处理视频的对应视频帧中的文本布局信息;所述文本布局信息用于表征所述各个文本信息对应的文本框在所述待处理视频中的位置信息;
分类单元,被配置为执行将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性;所述功能属性用于表征每个文本信息的类型,所述来源属性用于表征所述文本信息的来源。
在一示例性实施例中,所述装置还包括抽帧单元,被配置为执行基于所述待处理视频中出现的多个文本信息,对所述待处理视频进行抽帧处理,得到所述待处理视频的多个目标视频帧;
所述分类单元,还被配置为执行将所述待处理视频包含的各个目标视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性。
在一示例性实施例中,所述抽帧单元,还被配置为执行确定当前目标视频帧集合以及所述当前目标视频帧集合已覆盖的文本信息;遍历其他视频帧,得到包含最多未覆盖的文本信息的新的目标视频帧;所述其他视频帧表示所述待处理视频中除所述当前目标视频帧集合中的目标视频帧之外的视频帧,所述未覆盖文本信息表示所述待处理视频中出现的多个文本信息中除所述已覆盖的文本信息之外的文本信息;将所述新的目标视频帧添加至所述当前目标视频帧集合,得到新的当前目标视频帧集合,并返回确定当前目标视频帧集合中已覆盖文本信息的步骤,直至得到的新的当前目标视频帧集合包含所述待处理视频中出现的所有文本信息,将包含所有文本信息的新的当前目标视频帧集合中的各个目标视频帧,确定为所述多个目标视频帧。
在一示例性实施例中,所述布局确定单元,还被配置为执行获取所述各个文本信息在所述待处理视频中的文本框位置信息;基于所述各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;根据所述各个文本信息对应文本框的倾斜信息和所述各个文本信息的文本框位置信息,得到所述各个文本信息的文本布局信息。
在一示例性实施例中,所述属性分类模型包括特征提取子模型、功能属性分类器和来源属性分类器;所述分类单元,还被配置为执行将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入所述特征提取子模型进行特征提取处理,得到所述特征提取子模型的第一层级的输出特征和第二层级的输出特征;其中,第二层级在所述特征提取子模型中的层级深度大于第一层级在所述特征提取子模型中的层级深度;将所述第一层级的输出特征,输入所述来源属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的来源属性;将所述第二层级的输出特征,输入所述功能属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性。
在一示例性实施例中,所述功能属性分类器包括初级分类器和次级分类器;所述分类单元,还被配置为执行通过所述功能属性分类器中的初级分类器,对所述第二层级的输出特征进行初次分类处理,得到所述待处理视频中的每个文本信息对应的初级功能信息;通过所述功能属性分类器中的次级分类器,对所述初级功能信息进行再次分类处理,得到所述待处理视频中的每个文本信息对应的功能属性。
在一示例性实施例中,所述文本获取单元,还被配置为执行通过视频文字识别模型,对待处理视频进行文字识别处理,得到所述待处理视频中出现的多个文本信息;或者,通过图像文字识别模型,分别对所述待处理视频包含的各个视频帧进行文字识别处理,得到所述待处理视频中出现的多个文本信息。
在一示例性实施例中,所述装置还包括模型训练单元,被配置为执行获取样本数据集;所述样本数据集包括样本视频、样本视频中出现的多个样本文本信息、各个样本文本信息在对应样本视频帧中的文本布局信息,以及各个样本文本信息的功能属性标签和来源属性标签;将所述样本视频包含的各个样本视频帧、所述各个样本文本信息以及所述各个样本文本信息的文本布局信息,输入待训练的属性分类模型进行分类处理,得到针对每个样本文本信息的预测功能属性和预测来源属性;基于所述预测功能属性与所述功能属性标签之间的第一差异信息,以及所述预测来源属性与所述来源属性标签之间的第二差异信息,对所述待训练的属性分类模型进行训练,得到训练完成的属性分类模型。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如上任一项所述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如上任一项所述的方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,所述计算机程序产品中包括指令,所述指令被电子设备的处理器执行时,使得所述电子设备能够执行如上任一项所述的方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
在构建属性分类模型的原始输入信息时,不仅考虑了文本信息和视频帧两个模态的信息,还引入了文本信息的文本布局信息共同参与对视频的理解分析,并且从文本信息的功能属性和来源属性两种维度表征对视频的分析结果,这种通过融合视频中文本的视觉、位置和文本等多种模态的信息,来实现对视频中文本的多个角度多个层次的分析的方法,可以显著提高对视频内容理解的准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种视频处理方法的流程示意图。
图2是根据一示例性实施例示出的来源属性和功能属性的体系结构示意图。
图3是根据一示例性实施例示出的一种属性确定步骤的流程示意图。
图4是根据另一示例性实施例示出的一种视频处理方法的流程示意图。
图5是根据一示例性实施例示出的一种视频处理装置的结构框图。
图6是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。还需要说明的是,本公开所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
在一示例性实施例中,如图1所示,提供了一种视频处理方法,本实施例以该方法应用于终端进行举例说明,可以理解的是,该方法也可以应用于服务器,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。本实施例中,该方法包括以下步骤:
在步骤S110中,获取待处理视频中出现的多个文本信息。
具体实现中,可通过OCR(Optical Character Recognition,光学字符识别)技术对待处理视频进行文字识别处理,得到待处理视频中出现过的文本信息,由此得到多个文本信息。
在步骤S120中,确定各个文本信息在待处理视频中的文本布局信息;文本布局信息用于表征各个文本信息对应的文本框在待处理视频中的位置信息。
其中,文本布局信息可包括文本框位置信息,具体地,可采用文本框BBOX(bounding box)的左上角坐标、右下角坐标,以及文本框的宽和高等信息,作为文本框在视频帧中的位置特征标识,具体可表示为:
Ii=Concat(PosEmb2Dx(xmin,xmax,width),PosEmb2Dy(ymin,ymax,height))
其中,Ii表示文本信息i对应的文本框位置信息,Concat()函数用于连接两个或多个数组,PosEmb2Dx表示文本信息i对应的文本框在二维空间的x轴上的位置,xmin和xmax表示文本信息i对应的文本框在x轴上的最小值和最大值,width表示文本信息i对应的文本框的宽度,PosEmb2Dy表示文本信息i对应的文本框在二维空间的y轴上的位置,ymin和ymax表示文本信息i对应的文本框在y轴上的最小值和最大值,height表示文本信息i对应的文本框的高度。
具体实现中,每个文本信息在待处理视频中都具有对应的位置,针对每个文本信息,可确定该文本信息对应的文本框BBOX,然后获取该文本框的左上角坐标、右下角坐标,以及文本框的宽和高,将文本框的左上角坐标、右下角坐标,以及文本框的宽和高确定为文本布局信息。
在步骤S130中,将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到待处理视频中的每个文本信息对应的功能属性和来源属性;功能属性用于表征每个文本信息的类型,来源属性用于表征文本信息的来源。
其中,来源属性为根据文本在视频中的编辑来源确定的属性,来源属性可以辅助从文本编辑来源的角度去理解视频中文本对主题表达的重要程序。
其中,功能属性为根据文本在视频主题的表达中的不同作用定义的属性。
参考图2,为一实施例示出的来源属性和功能属性的体系结构示意图,如图2所示,从文本编辑来源的角度考虑,来源属性可分为后期编辑文字、场景文字和电子屏幕文字等3种来源。功能属性种类较多,因此,本公开采用树状结构进行多级分类,例如,可先分为标题、主要内容和辅助文字等一级属性;一级属性下可进一步划分二级属性,例如,辅助文字可包括标识、注释、引导性文字等多个二级属性;二级属性下可进一步划分三级属性,例如,特效文字可包括魔表、综艺效果文字和漫画特效文字等多个三级属性。
具体实现中,可预先获取样本数据集,样本数据集可包括样本视频、样本视频中出现的多个样本文本信息、各个样本文本信息在对应样本视频帧中的文本布局信息,以及各个样本文本信息的功能属性标签和来源属性标签,以样本视频包含的各个样本视频帧、所述各个样本文本信息以及所述各个样本文本信息的文本布局信息为输入变量,以针对每个样本文本信息的预测功能属性和预测来源属性为输出变量,对待训练的属性分类模型进行训练,得到训练完成的属性分类模型。进一步在得到待处理视频中出现的多个文本信息,以及各个文本信息的文本布局信息后,可将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入训练完成的属性分类模型,得到待处理视频中的每个文本信息对应的功能属性和来源属性,将每个文本信息对应的功能属性和来源属性提供给下游算法进行进一步分析,例如,可将每个文本信息对应的功能属性和来源属性,用于多模态标签分类、搜索、广告算法和推荐算法等。
上述视频处理方法中,在构建属性分类模型的原始输入信息时,不仅考虑了文本信息和视频帧两个模态的信息,还引入了文本信息的文本布局信息共同参与对视频的理解分析,并且从文本信息的功能属性和来源属性两种维度表征对视频的分析结果,这种通过融合视频中文本的视觉、位置和文本等多种模态的信息,来实现对视频中文本的多个角度多个层次的分析的方法,可以显著提高对视频内容理解的准确度。
在一示例性实施例中,在步骤S130之前,还包括:基于待处理视频中出现的多个文本信息,对待处理视频进行抽帧处理,得到待处理视频的多个目标视频帧;
步骤S130,还包括:将待处理视频包含的各个目标视频帧、各个文本信息以及各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到待处理视频中的每个文本信息对应的功能属性和来源属性。
具体实现中,由于待处理视频可能存在冗余的视频帧,即存在两个相邻视频帧中的文本信息完全相同的情况,因此将待处理视频中的每个视频帧均输入属性分类模型进行处理,将会造成不必要的计算资源的浪费,因此,为了解决该技术问题,本实施例还提出了对待处理视频进行抽帧处理,得到待处理视频的多个目标视频帧,将各个目标视频帧结合各个文本信息以及各个文本信息的文本布局信息,输入属性分类模型进行分类处理,来确定待处理视频中的每个文本信息对应的功能属性和来源属性的方法。
更具体地,对待处理视频进行抽帧处理为根据待处理视频中出现的各个文本信息进行抽帧处理,以实现在保留各个文本信息对应的视频帧,保留视频分析结果准确度的基础上,降低属性分类模型的冗余计算量,提升整个流程的推理速度。
在一示例性实施例中,基于待处理视频中出现的多个文本信息,对待处理视频进行抽帧处理,得到待处理视频的多个目标视频帧,包括:
步骤S111,确定当前目标视频帧集合以及当前目标视频帧集合已覆盖的文本信息;
步骤S112,遍历其他视频帧,得到包含最多未覆盖的文本信息的新的目标视频帧;其他视频帧表示待处理视频中除当前目标视频帧集合中的目标视频帧之外的视频帧,未覆盖文本信息表示待处理视频中出现的多个文本信息中除已覆盖的文本信息之外的文本信息;
步骤S113,将新的目标视频帧添加至当前目标视频帧集合,得到新的当前目标视频帧集合,并返回确定当前目标视频帧集合中已覆盖文本信息的步骤,直至得到的新的当前目标视频帧集合包含待处理视频中出现的所有文本信息,将包含所有文本信息的新的当前目标视频帧集合中的各个目标视频帧,确定为多个目标视频帧。
具体实现中,可采用最小覆盖集合的原理对整个视频OCR的结果进行抽帧,假设一段长度为M秒的视频中共有N个文字对象,{t1,t2,t3,...,tN},视频OCR以一秒一帧的频率计算,共有M帧,{f1,f2,f3,...,fM}。可使用贪心算法来实现这一抽帧策略:
设当前目标视频帧集合为R,当前目标视频帧集合已覆盖的文本信息为S。其中,R和S的初始值均为空,循环执行如下过程:
(1)遍历待处理视频中除当前目标视频帧集合R的视频帧之外的其他视频帧,从中确定出含有S中未覆盖的文本信息最多的视频帧,记为fi
(2)将fi加入集合R中,得到新的当前目标视频帧集合R*,返回步骤(1),直至S覆盖了待处理视频中出现的所有文本信息,返回最后得到的当前目标视频帧集合,将最后得到的包含所有文本信息的新的当前目标视频帧集合中的各个目标视频帧,确定为多个目标视频帧。
本实施例中,通过待处理视频中出现的各个文本信息进行抽帧处理,循环抽取包含最多未覆盖的文本信息的视频帧,作为目标视频帧,实现在保证得到的多个目标视频帧包含待处理视频中出现的各个文本信息,不影响对待处理视频理解准确度的基础上,使目标视频帧的数量最少,从而进一步降低模型的冗余计算量,提升整个流程的推理速度。
在一示例性实施例中,上述步骤S120中确定各个文本信息在待处理视频中的文本布局信息,具体可以通过以下步骤实现:
步骤S121,获取各个文本信息在待处理视频中的文本框位置信息;
步骤S122,基于各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;
步骤S123,根据各个文本信息对应文本框的倾斜信息和各个文本信息的文本框位置信息,得到各个文本信息的文本布局信息。
具体地,由于传统方法中对文本框的二维位置特征(2D position embedding)编码中仅考虑了文本框的左上角和右下角的坐标信息,导致每一个文本框在这种表征中都被视为一个水平的方框。但是实际上,视频,尤其是短视频中相当一部分文本框会以倾斜的形式出现,而这种框的倾斜信息对于属性的判断有一定影响。例如:许多来源属性中被判断为场景文字的文本框是倾斜的。为了补充这一信息,在文本框的输入阶段,本实施例还引入了倾斜信息(slantion embedding),用以表征文本框是否倾斜。
更具体地,在确定各个文本信息的文本框位置信息后,可基于文本框位置信息确定各个文本信息对应文本框的倾斜信息,将文本框位置信息和文本框的倾斜信息结合作为文本布局信息,进一步在进行文本属性分类时,结合待处理视频包含的各个视频帧、各个文本信息,以及各个文本信息对应文本框的倾斜信息、各个文本信息的文本框位置信息共同确定待处理视频中的每个文本信息对应的功能属性和来源属性。
本实施例中,考虑到了文本框的倾斜信息对文本属性的判断的影响,在待处理视频包含的各个视频帧、各个文本信息、各个文本信息的文本框位置信息的基础上,引入文本框的倾斜信息参与对待处理视频的理解,可以进一步提高对待处理视频中的每个文本信息对应的功能属性和来源属性的判断的准确性。
在一示例性实施例中,如图3所示,步骤S130之前,还包括:
步骤S310,基于待处理视频中出现的多个文本信息,对待处理视频进行抽帧处理,得到待处理视频的多个目标视频帧;
步骤S320,基于各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;
步骤S330,根据各个文本信息对应文本框的倾斜信息和各个文本信息的文本框位置信息,得到各个文本信息的文本布局信息;
步骤S340,将待处理视频包含的各个目标视频帧、各个文本信息、各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到待处理视频中的每个文本信息对应的功能属性和来源属性。
本实施例中,一方面根据待处理视频中出现的各个文本信息对待处理视频进行抽帧处理,可以实现在保留各个文本信息对应的视频帧,保留视频分析结果准确度的基础上,降低属性分类模型的冗余计算量,提升整个流程的推理速度,另一方面引入文本框的倾斜信息参与对待处理视频的理解,可以进一步提高对待处理视频中的每个文本信息对应的功能属性和来源属性的判断的准确性。
在一示例性实施例中,属性分类模型包括特征提取子模型、功能属性分类器和来源属性分类器;
上述步骤S130,还包括:
步骤S1301,将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入特征提取子模型进行特征提取处理,得到特征提取子模型的第一层级的输出特征和第二层级的输出特征;其中,第二层级在特征提取子模型中的层级深度大于第一层级在特征提取子模型中的层级深度;
步骤S1302,将第一层级的输出特征,输入来源属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的来源属性;
步骤S1303,将第二层级的输出特征,输入功能属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的功能属性。
其中,特征提取子模型可以为基于空间位置感知的Transformer模型(变换模型)。
其中,第一层级的输出特征可以理解为浅层的输出特征,第二层级的输出特征可以理解为顶层的输出特征。
可以理解的是,本公开通过训练发现来源属性和功能属性的任务是相互促进的,且来源属性的分类更偏向于视觉特征,功能属性的分类更偏向于综合的语义特征,因此,本公开将Transformer的浅层输出用于训练来源属性分类器,将Transformer的顶层输出用于训练功能属性的分类器。在实际应用时,将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入特征提取子模型进行特征提取处理,得到Transformer的浅层输出特征(即第一层级的输出特征)和顶层输出特征(即第二层级的输出特征)。进一步将浅层输出特征输入来源属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的来源属性,将顶层输出特征输入功能属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的功能属性。
本实施例中,考虑到来源属性和功能属性的不同偏向,设定由特征提取子模型不同层级的输出特征分别对应进行来源属性和功能属性的分类确定,可以提高分类结果的准确性。
在一示例性实施例中,功能属性分类器包括初级分类器和次级分类器;步骤S1303中将第二层级的输出特征,输入功能属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的功能属性,包括:
步骤S1303a,通过功能属性分类器中的初级分类器,对第二层级的输出特征进行初次分类处理,得到待处理视频中的每个文本信息对应的初级功能信息;
步骤S1303b,通过功能属性分类器中的次级分类器,对初级功能信息进行再次分类处理,得到待处理视频中的每个文本信息对应的功能属性。
具体地,本公开定义的如图2所示的功能属性种类繁多,且这些属性在数量分布上呈现长尾现象。有些属性的文本数据很少,在模型的训练中无法得到充分的训练。因此,本公开设计了一套多层级的分类器,将功能属性转化成一种树状的分类。在初级分类器中,将一些长尾的类别聚合为父级节点,在次级分类器中,再分别对这些聚合的父节点分类成子节点,以缓解因为属性标签的长尾分布导致的各属性分类器学习程度不均匀导致的属性误判现象。因此,在得到特征提取子模型第二层级的输出特征后,可先通过功能属性分类器中的初级分类器,对第二层级的输出特征进行初次分类处理,得到待处理视频中的每个文本信息对应的初级功能信息,进一步通过功能属性分类器中的次级分类器,对初级功能信息进行再次分类处理,得到待处理视频中的每个文本信息对应的功能属性。
可以理解的是,本实施例中的初级分类器和次级分类器仅用于说明缓解因为属性标签的长尾分布导致的各属性分类器学习程度不均匀导致的属性误判现象的原理,除了采用初级分类器和次级分类器两层级分类器外,还可以采用三层级、四层级等更多层级的分类器,具体可以根据实际需求设定,本公开对此不作具体限定。
本实施例中,在确定文本信息的功能属性时,考虑到功能属性存在的长尾现象,将功能属性分类器划分为多个层级的分类器,由初级分类器进行分类后,由次级分类器进行进一步细分,从而可以有效缓解因为属性标签的长尾分布导致的各属性分类器学习程度不均匀导致的属性误判现象。
在一示例性实施例中,步骤S110中获取待处理视频中出现的多个文本信息,包括:
步骤S1101,通过视频文字识别模型,对待处理视频进行文字识别处理,得到所述待处理视频中出现的多个文本信息;或者,
步骤S1102,通过图像文字识别模型,分别对所述待处理视频包含的各个视频帧进行文字识别处理,得到所述待处理视频中出现的多个文本信息。
具体实现中,待处理视频中文本信息的获取可以通过视频文字识别模型(视频OCR)检测和识别得到,也可以通过由任意的图像文字识别模型(图像OCR)每秒抽取一个视频帧,逐帧识别的方式得到。
本实施例提出的视频OCR方法,能够不重不漏地检测到待处理视频中出现的所有文字,并且能够检测出每个文本信息的起止时间以及在视频各帧中的bbox信息。
在一示例性实施例中,属性分类模型的训练过程包括:
获取样本数据集;样本数据集包括样本视频、样本视频中出现的多个样本文本信息、各个样本文本信息在对应样本视频帧中的文本布局信息,以及各个样本文本信息的功能属性标签和来源属性标签;
将样本视频包含的各个样本视频帧、各个样本文本信息以及各个样本文本信息的文本布局信息,输入待训练的属性分类模型进行分类处理,得到针对每个样本文本信息的预测功能属性和预测来源属性;
基于预测功能属性与功能属性标签之间的第一差异信息,以及预测来源属性与来源属性标签之间的第二差异信息,对待训练的属性分类模型进行训练,得到训练完成的属性分类模型。
具体实现中,属性分类模型包括特征提取子模型、功能属性分类器和来源属性分类器,特征提取子模型可以为transformer模型,通过训练发现来源属性和功能属性的任务是相互促进的,因此,本公开设计了一种多任务的训练过程。同时,来源属性的分类更偏向于视觉特征,功能属性的分类更偏向于综合的语义特征,因此,本公开将Transformer的浅层输出用于训练来源属性分类器,将Transformer的顶层输出用于训练功能属性的分类器。最终这套多模态、多任务、多层级的属性分类模型在功能属性和来源属性的测试集上都达到了最好的表现。
更具体地,属性分类模型的训练可以以样本视频包含的各个样本视频帧、所述各个样本文本信息以及所述各个样本文本信息的文本布局信息为输入变量,输入待训练的属性分类模型,得到预测功能属性和预测来源属性;基于预测功能属性与功能属性标签之间的第一差异信息,得到第一损失值,基于预测来源属性与来源属性标签之间的第二差异信息,得到第二损失值,以减小第一损失值和第二损失值为训练目标,调整属性分类模型的模型参数进行迭代训练,直至第一损失值和第二损失值收敛,或达到预设训练次数,得到训练完成的属性分类模型。
另外,由于文本的功能属性种类繁多,且这些属性在数量分布上呈现长尾现象。有些属性的文本数据很少,在模型的训练中无法得到充分的训练。因此,本公开设计了一套多层级的分类器,将功能属性转化成一种树状的分类。在初级分类器中,将一些长尾的类别聚合为父级节点,在次级分类器中,再分别对这些聚合的父节点分类成子节点,以缓解因为属性标签的长尾分布导致的各属性分类器学习程度不均匀导致的属性误判现象。
本实施例提供的属性分类模型的训练方法,通过多模态、多任务、多层级训练得到的属性分类模型,可以极大地提高对视频内容理解的准确度,且可以解决当前短视频的OCR结果混乱无序,导致简单将视频中的OCR文本信息直接进行拼接可能导致语义混乱、主题理解有误的问题。
在另一示例性实施例中,如图4所示,是根据一示例性实施例示出的另一种视频处理方法的流程图,本实施例中,该方法包括以下步骤:
步骤S410,通过视频文字识别模型,对待处理视频进行文字识别处理,得到待处理视频中出现的多个文本信息;
步骤S420,基于待处理视频中出现的多个文本信息,对待处理视频进行抽帧处理,得到待处理视频的多个目标视频帧;
步骤S430,获取各个文本信息在待处理视频中的文本框位置信息,基于各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;基于文本框位置信息和倾斜信息,得到各个文本信息的文本布局信息;
步骤S440,将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入特征提取子模型进行特征提取处理,得到特征提取子模型的第一层级的输出特征和第二层级的输出特征;
步骤S450,将第一层级的输出特征,输入来源属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的来源属性;
步骤S460,通过功能属性分类器中的初级分类器,对第二层级的输出特征进行初次分类处理,得到待处理视频中的每个文本信息对应的初级功能信息;
步骤S470,通过功能属性分类器中的次级分类器,对初级功能信息进行再次分类处理,得到待处理视频中的每个文本信息对应的功能属性。
本实施例提出的基于多模态多任务学习的视频文本智能分析技术,通过融合视频中文本的视觉、位置和文本三种模态的信息,来实现对视频中文本的多个角度多个层次的分析,可以提高分析结果的准确度,从而在应用于多种下游业务时,可对终端业务的增长有着积极的促进作用。如搜索业务,需要使用标题、字幕等具有关键信息的属性;风控业务,需要使用台标属性;本地生活和电商业务,需要使用到商品品牌、招牌等属性。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
可以理解的是,本说明书中上述方法的各个实施例之间相同/相似的部分可互相参见,每个实施例重点说明的是与其他实施例的不同之处,相关之处参见其他方法实施例的说明即可。
基于同样的发明构思,本公开实施例还提供了一种用于实现上述所涉及的视频处理方法的视频处理装置。
图5是根据一示例性实施例示出的一种视频处理装置的结构框图。参照图5,该装置包括:
文本获取单元510,被配置为执行获取待处理视频中出现的多个文本信息;
布局确定单元520,被配置为执行确定各个文本信息在待处理视频的对应视频帧中的文本布局信息;文本布局信息用于表征各个文本信息对应的文本框在待处理视频中的位置信息;
分类单元530,被配置为执行将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到待处理视频中的每个文本信息对应的功能属性和来源属性;功能属性用于表征每个文本信息的类型,来源属性用于表征文本信息的来源。
在一示例性实施例中,装置还包括抽帧单元,被配置为执行基于待处理视频中出现的多个文本信息,对待处理视频进行抽帧处理,得到待处理视频的多个目标视频帧;
分类单元530,还被配置为执行将待处理视频包含的各个目标视频帧、各个文本信息以及各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到待处理视频中的每个文本信息对应的功能属性和来源属性。
在一示例性实施例中,抽帧单元,还被配置为执行确定当前目标视频帧集合以及当前目标视频帧集合已覆盖的文本信息;遍历其他视频帧,得到包含最多未覆盖的文本信息的新的目标视频帧;其他视频帧表示待处理视频中除当前目标视频帧集合中的目标视频帧之外的视频帧,未覆盖文本信息表示待处理视频中出现的多个文本信息中除已覆盖的文本信息之外的文本信息;将新的目标视频帧添加至当前目标视频帧集合,得到新的当前目标视频帧集合,并返回确定当前目标视频帧集合中已覆盖文本信息的步骤,直至得到的新的当前目标视频帧集合包含待处理视频中出现的所有文本信息,将包含所有文本信息的新的当前目标视频帧集合中的各个目标视频帧,确定为多个目标视频帧。
在一示例性实施例中,布局确定单元520,还被配置为执行获取各个文本信息在待处理视频中的文本框位置信息;基于各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;根据各个文本信息对应文本框的倾斜信息和各个文本信息的文本框位置信息,得到各个文本信息的文本布局信息。
在一示例性实施例中,属性分类模型包括特征提取子模型、功能属性分类器和来源属性分类器;分类单元530,还被配置为执行将待处理视频包含的各个视频帧、各个文本信息以及各个文本信息的文本布局信息,输入特征提取子模型进行特征提取处理,得到特征提取子模型的第一层级的输出特征和第二层级的输出特征;其中,第二层级在特征提取子模型中的层级深度大于第一层级在特征提取子模型中的层级深度;将第一层级的输出特征,输入来源属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的来源属性;将第二层级的输出特征,输入功能属性分类器进行分类处理,得到待处理视频中的每个文本信息对应的功能属性。
在一示例性实施例中,功能属性分类器包括初级分类器和次级分类器;分类单元530,还被配置为执行通过功能属性分类器中的初级分类器,对第二层级的输出特征进行初次分类处理,得到待处理视频中的每个文本信息对应的初级功能信息;通过功能属性分类器中的次级分类器,对初级功能信息进行再次分类处理,得到待处理视频中的每个文本信息对应的功能属性。
在一示例性实施例中,文本获取单元510,还被配置为执行通过视频文字识别模型,对待处理视频进行文字识别处理,得到待处理视频中出现的多个文本信息;或者,通过图像文字识别模型,分别对待处理视频包含的各个视频帧进行文字识别处理,得到待处理视频中出现的多个文本信息。
在一示例性实施例中,所述装置还包括模型训练单元,被配置为执行获取样本数据集;样本数据集包括样本视频、样本视频中出现的多个样本文本信息、各个样本文本信息在对应样本视频帧中的文本布局信息,以及各个样本文本信息的功能属性标签和来源属性标签;将样本视频包含的各个样本视频帧、各个样本文本信息以及各个样本文本信息的文本布局信息,输入待训练的属性分类模型进行分类处理,得到针对每个样本文本信息的预测功能属性和预测来源属性;基于预测功能属性与功能属性标签之间的第一差异信息,以及预测来源属性与来源属性标签之间的第二差异信息,对待训练的属性分类模型进行训练,得到训练完成的属性分类模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图6是根据一示例性实施例示出的一种用于实现视频处理方法的电子设备600的框图。例如,电子设备600可以是移动电话、计算机、数字广播终端、消息收发设备、游戏控制台、平板设备、医疗设备、健身设备、个人数字助理等。
参照图6,电子设备600可以包括以下一个或多个组件:处理组件602、存储器604、电源组件606、多媒体组件608、音频组件610、输入/输出(I/O)的接口612、传感器组件614以及通信组件616。
处理组件602通常控制电子设备600的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件602可以包括一个或多个处理器620来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件602可以包括一个或多个模块,便于处理组件602和其他组件之间的交互。例如,处理组件602可以包括多媒体模块,以方便多媒体组件608和处理组件602之间的交互。
存储器604被配置为存储各种类型的数据以支持在电子设备600的操作。这些数据的示例包括用于在电子设备600上操作的任何应用程序或方法的指令、联系人数据、电话簿数据、消息、图片、视频等。存储器604可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘、光盘或石墨烯存储器。
电源组件606为电子设备600的各种组件提供电力。电源组件606可以包括电源管理系统,一个或多个电源,及其他与为电子设备600生成、管理和分配电力相关联的组件。
多媒体组件608包括在所述电子设备600和用户之间的提供输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件608包括前置摄像头和/或后置摄像头。当电子设备600处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件610被配置为输出和/或输入音频信号。例如,音频组件610包括麦克风(MIC),当电子设备600处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器604或经由通信组件616发送。在一些实施例中,音频组件610还包括扬声器,用于输出音频信号。
I/O接口612为处理组件602和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件614包括一个或多个传感器,用于为电子设备600提供各个方面的状态评估。例如,传感器组件614可以检测到电子设备600的打开/关闭状态,组件的相对定位,例如所述组件为电子设备600的显示器和小键盘,传感器组件614还可以检测电子设备600或电子设备600组件的位置改变,用户与电子设备600接触的存在或不存在,设备600方位或加速/减速和电子设备600的温度变化。传感器组件614可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件614还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件614还可以包括加速度传感器、陀螺仪传感器、磁传感器、压力传感器或温度传感器。
通信组件616被配置为便于电子设备600和其他设备之间有线或无线方式的通信。电子设备600可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件616经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件616还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备600可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在一示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器604,上述指令可由电子设备600的处理器620执行以完成上述方法。例如,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在一示例性实施例中,还提供了一种计算机程序产品,所述计算机程序产品中包括指令,上述指令可由电子设备600的处理器620执行以完成上述方法。
需要说明的,上述的装置、电子设备、计算机可读存储介质、计算机程序产品等根据方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (11)

1.一种视频处理方法,其特征在于,包括:
获取待处理视频中出现的多个文本信息;
确定各个文本信息在所述待处理视频中的文本布局信息;所述文本布局信息用于表征所述各个文本信息对应的文本框在所述待处理视频中的位置信息;
将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性;所述功能属性用于表征每个文本信息的类型,所述来源属性用于表征所述文本信息的来源。
2.根据权利要求1所述的方法,其特征在于,所述将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性之前,还包括:
基于所述待处理视频中出现的多个文本信息,对所述待处理视频进行抽帧处理,得到所述待处理视频的多个目标视频帧;
所述将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性,包括:
将所述待处理视频包含的各个目标视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性。
3.根据权利要求2所述的方法,其特征在于,所述基于所述待处理视频中出现的多个文本信息,对所述待处理视频进行抽帧处理,得到所述待处理视频的多个目标视频帧,包括:
确定当前目标视频帧集合以及所述当前目标视频帧集合已覆盖的文本信息;
遍历其他视频帧,得到包含最多未覆盖的文本信息的新的目标视频帧;所述其他视频帧表示所述待处理视频中除所述当前目标视频帧集合中的目标视频帧之外的视频帧,所述未覆盖文本信息表示所述待处理视频中出现的多个文本信息中除所述已覆盖的文本信息之外的文本信息;
将所述新的目标视频帧添加至所述当前目标视频帧集合,得到新的当前目标视频帧集合,并返回确定当前目标视频帧集合中已覆盖文本信息的步骤,直至得到的新的当前目标视频帧集合包含所述待处理视频中出现的所有文本信息,将包含所有文本信息的新的当前目标视频帧集合中的各个目标视频帧,确定为所述多个目标视频帧。
4.根据权利要求1所述的方法,其特征在于,所述确定各个文本信息在所述待处理视频中的文本布局信息,包括:
获取所述各个文本信息在所述待处理视频中的文本框位置信息;
基于所述各个文本信息的文本框位置信息,分别确定各个文本信息对应文本框的倾斜信息;
根据所述各个文本信息对应文本框的倾斜信息和所述各个文本信息的文本框位置信息,得到所述各个文本信息的文本布局信息。
5.根据权利要求1所述的方法,其特征在于,所述属性分类模型包括特征提取子模型、功能属性分类器和来源属性分类器;
所述将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性,还包括:
将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入所述特征提取子模型进行特征提取处理,得到所述特征提取子模型的第一层级的输出特征和第二层级的输出特征;其中,第二层级在所述特征提取子模型中的层级深度大于第一层级在所述特征提取子模型中的层级深度;
将所述第一层级的输出特征,输入所述来源属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的来源属性;
将所述第二层级的输出特征,输入所述功能属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性。
6.根据权利要求5所述的方法,其特征在于,所述功能属性分类器包括初级分类器和次级分类器;
所述将所述第二层级的输出特征,输入所述功能属性分类器进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性,包括:
通过所述功能属性分类器中的初级分类器,对所述第二层级的输出特征进行初次分类处理,得到所述待处理视频中的每个文本信息对应的初级功能信息;
通过所述功能属性分类器中的次级分类器,对所述初级功能信息进行再次分类处理,得到所述待处理视频中的每个文本信息对应的功能属性。
7.根据权利要求1所述的方法,其特征在于,所述获取待处理视频中出现的多个文本信息,包括:
通过视频文字识别模型,对待处理视频进行文字识别处理,得到所述待处理视频中出现的多个文本信息;或者,
通过图像文字识别模型,分别对所述待处理视频包含的各个视频帧进行文字识别处理,得到所述待处理视频中出现的多个文本信息。
8.根据权利要求1所述的方法,其特征在于,所述属性分类模型的训练过程包括:
获取样本数据集;所述样本数据集包括样本视频、样本视频中出现的多个样本文本信息、各个样本文本信息在对应样本视频帧中的文本布局信息,以及各个样本文本信息的功能属性标签和来源属性标签;
将所述样本视频包含的各个样本视频帧、所述各个样本文本信息以及所述各个样本文本信息的文本布局信息,输入待训练的属性分类模型进行分类处理,得到针对每个样本文本信息的预测功能属性和预测来源属性;
基于所述预测功能属性与所述功能属性标签之间的第一差异信息,以及所述预测来源属性与所述来源属性标签之间的第二差异信息,对所述待训练的属性分类模型进行训练,得到训练完成的属性分类模型。
9.一种视频处理装置,其特征在于,包括:
文本获取单元,被配置为执行获取待处理视频中出现的多个文本信息;
布局确定单元,被配置为执行确定各个文本信息在所述待处理视频的对应视频帧中的文本布局信息;所述文本布局信息用于表征所述各个文本信息对应的文本框在所述待处理视频中的位置信息;
分类单元,被配置为执行将所述待处理视频包含的各个视频帧、所述各个文本信息以及所述各个文本信息的文本布局信息,输入训练完成的属性分类模型进行分类处理,得到所述待处理视频中的每个文本信息对应的功能属性和来源属性;所述功能属性用于表征每个文本信息的类型,所述来源属性用于表征所述文本信息的来源。
10.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至8中任一项所述的视频处理方法。
11.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至8中任一项所述的视频处理方法。
CN202310124901.0A 2023-02-03 2023-02-03 视频处理方法、装置、电子设备及存储介质 Active CN116156247B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310124901.0A CN116156247B (zh) 2023-02-03 2023-02-03 视频处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310124901.0A CN116156247B (zh) 2023-02-03 2023-02-03 视频处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116156247A CN116156247A (zh) 2023-05-23
CN116156247B true CN116156247B (zh) 2024-09-20

Family

ID=86373160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310124901.0A Active CN116156247B (zh) 2023-02-03 2023-02-03 视频处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116156247B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022668A (zh) * 2021-10-29 2022-02-08 北京有竹居网络技术有限公司 一种文本对齐语音的方法、装置、设备及介质
CN114157876A (zh) * 2020-09-07 2022-03-08 北京达佳互联信息技术有限公司 直播分类方法、装置、服务器和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6731788B1 (en) * 1999-01-28 2004-05-04 Koninklijke Philips Electronics N.V. Symbol Classification with shape features applied to neural network
US10623829B2 (en) * 2018-09-07 2020-04-14 Oath Inc. Systems and methods for multimodal multilabel tagging of video
CN114391260B (zh) * 2019-12-30 2024-08-13 深圳市欢太科技有限公司 文字识别方法、装置、存储介质及电子设备
CN114443899A (zh) * 2022-01-28 2022-05-06 腾讯科技(深圳)有限公司 视频分类方法、装置、设备及介质
CN115035530A (zh) * 2022-04-21 2022-09-09 阿里巴巴达摩院(杭州)科技有限公司 图像处理方法、图像文本获得方法、装置及电子设备
CN114880496A (zh) * 2022-04-28 2022-08-09 国家计算机网络与信息安全管理中心 多媒体信息话题分析方法、装置、设备及存储介质
CN115187910A (zh) * 2022-07-08 2022-10-14 腾讯科技(北京)有限公司 视频分类模型训练方法、装置、电子设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114157876A (zh) * 2020-09-07 2022-03-08 北京达佳互联信息技术有限公司 直播分类方法、装置、服务器和存储介质
CN114022668A (zh) * 2021-10-29 2022-02-08 北京有竹居网络技术有限公司 一种文本对齐语音的方法、装置、设备及介质

Also Published As

Publication number Publication date
CN116156247A (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
US11443742B2 (en) Method and apparatus for determining a dialog state, dialog system, computer device, and storage medium
US10372469B2 (en) Method and device for displaying information
CN113536793A (zh) 一种实体识别方法、装置、设备以及存储介质
EP3173948A1 (en) Method and apparatus for recommendation of reference documents
CN107527619B (zh) 语音控制业务的定位方法及装置
US10524005B2 (en) Facilitating television based interaction with social networking tools
CN104298429A (zh) 一种基于输入的信息展示方法和输入法系统
CN107621886B (zh) 一种输入推荐方法、装置及电子设备
CN107515870B (zh) 一种搜索方法和装置、一种用于搜索的装置
CN110147467A (zh) 一种文本描述的生成方法、装置、移动终端及存储介质
CN109819288B (zh) 广告投放视频的确定方法、装置、电子设备及存储介质
CN112328793B (zh) 评论文本数据的处理方法、装置及存储介质
WO2021017238A1 (zh) 一种文本生成方法和装置
CN106504050A (zh) 一种信息比对装置及方法
CN112291614A (zh) 一种视频生成方法及装置
CN106331328B (zh) 信息提示的方法及装置
CN110232181B (zh) 评论分析方法及装置
CN115909127A (zh) 异常视频识别模型的训练方法、异常视频识别方法和装置
CN112381091B (zh) 视频内容识别方法、装置、电子设备及存储介质
CN112612949B (zh) 推荐数据集合的建立方法及装置
CN111629270A (zh) 一种候选项确定方法、装置及机器可读介质
CN110929122A (zh) 一种数据处理方法、装置和用于数据处理的装置
CN110650364B (zh) 视频态度标签提取方法及基于视频的交互方法
CN112328809A (zh) 实体分类方法、装置及计算机可读存储介质
CN116156247B (zh) 视频处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant