CN111836064A - 一种直播内容监测方法及装置 - Google Patents

一种直播内容监测方法及装置 Download PDF

Info

Publication number
CN111836064A
CN111836064A CN202010634404.1A CN202010634404A CN111836064A CN 111836064 A CN111836064 A CN 111836064A CN 202010634404 A CN202010634404 A CN 202010634404A CN 111836064 A CN111836064 A CN 111836064A
Authority
CN
China
Prior art keywords
feature vector
time period
sample
target
sample feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010634404.1A
Other languages
English (en)
Other versions
CN111836064B (zh
Inventor
周杰
王鸣辉
孙振邦
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Beijing Volcano Engine Technology Co Ltd
Douyin Vision Beijing Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010634404.1A priority Critical patent/CN111836064B/zh
Publication of CN111836064A publication Critical patent/CN111836064A/zh
Application granted granted Critical
Publication of CN111836064B publication Critical patent/CN111836064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本公开提供了一种直播内容监测方法及装置,其中,该方法包括:获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及待监测直播间在最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;基于历史特征向量、以及当前特征向量,确定将历史特征向量和当前特征向量中每个特征向量作为目标特征向量时,历史特征向量和当前特征向量相对于目标特征向量的权重;基于历史特征向量和当前特征向量相对于目标特征向量的权重、以及目标特征向量,生成目标视频片段对应的视频监测结果。

Description

一种直播内容监测方法及装置
技术领域
本公开涉及互联网技术领域,具体而言,涉及一种直播内容监测方法及装置。
背景技术
随着智能设备的普及,使得互联网直播行业快速发展,越来越多的直播用户通过直播的方式展示才艺、生活等。但是,主播在直播过程中,可能存在发表不恰当言论、做出不恰当行为的情况,从而影响互联网平台的环境。因此,需要对直播过程进行实时监控,对存在上述不恰当行为的主播对应的直播间进行处理,以保障直播间内直播内容的合法性、安全性等。
故提出一种对直播间内的直播内容进行监测的方法至关重要。
发明内容
本公开实施例至少提供一种直播内容监测方法及装置。
第一方面,本公开实施例提供了一种直播内容监测方法,包括:
获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及所述待监测直播间在所述最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;
基于所述历史特征向量、以及所述当前特征向量,确定将所述历史特征向量和所述当前特征向量中每个特征向量作为目标特征向量时,所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重;
基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果。
一种可选的实施方式中,基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果,包括:
针对每个目标特征向量,基于所述历史特征向量、所述当前特征向量、以及所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重,得到加权平均后的平均特征向量;基于所述平均特征向量对该目标特征向量进行处理,得到处理后的目标特征向量;
基于处理后的每个目标特征向量,生成所述目标视频片段对应的视频监测结果。
一种可选的实施方式中,所述目标视频片段对应的视频监测结果为基于训练后的直播审核神经网络得到的;
通过下述步骤训练所述直播审核神经网络:
获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量;
对各个所述样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第一样本特征向量;
基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量;
基于各个时间段的所述第二样本特征向量,得到的预测的视频监测结果;基于所述预测的视频监测结果以及所述样本直播间对应的标注监测结果,对所述直播审核神经网络进行训练。
一种可选的实施方式中,所述基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量,包括:
对各个时间段分别对应的第一样本特征向量进行第一加权平均处理,得到各个时间段分别对应的第一中间样本特征向量,并对各个时间段分别对应的所述第一中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第二中间样本特征向量;
将各个时间段分别对应的所述第一中间样本特征向量和所述第二中间样本特征向量进行融合,得到各个时间段分别对应的第三中间样本特征向量;
对各个时间段分别对应的所述第一样本特征向量进行第二加权平均处理,得到各个时间段分别对应的第四中间样本特征向量;
将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,并对各个时间段分别对应的所述第五中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第六中间样本特征向量;基于各个时间段分别对应的所述第五中间样本特征向量和所述第六中间样本特征向量,得到各个时间段分别对应的所述第二样本特征向量。
一种可选的实施方式中,在加权平均处理为第一加权平均处理时,将第一中间特征向量作为目标中间样本特征向量,在加权平均处理为第二加权平均处理时,将第四中间特征向量作为目标中间样本特征向量,对各个时间段分别对应的第一样本特征向量进行加权平均处理,得到各个时间段分别对应的目标中间样本特征向量,包括:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重;
基于各个时间段分别对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重、以及各个时间段分别对应的第一样本特征向量,得到该目标时间段对应的加权平均处理后的第一平均样本特征向量;
将该目标时间段对应的第一样本特征向量与所述第一平均样本特征向量进行融合,得到该目标时间段对应的加权平均处理后的目标中间样本特征向量。
一种可选的实施方式中,基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重,包括:
将各个时间段对应的第一样本特征向量分别与该目标时间段的第一样本特征向量进行融合,生成各个时间段分别对应的、融合后的第一样本特征向量;
基于各个时间段分别对应的、融合后的第一样本特征向量,生成各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。
一种可选的实施方式中,将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,包括:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第三中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量,得到各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重;
基于各个时间段分别对应的所述第四中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重,得到该目标时间段对应的加权后的第二平均样本特征向量;
将该目标时间段对应的所述第三中间样本特征向量与所述第二平均样本特征向量进行融合,得到该目标时间段对应的所述第五中间样本特征向量。
一种可选的实施方式中,基于各个时间段的所述第二样本特征向量,得到预测的视频监测结果,包括:
针对初始时间段,基于该初始时间段对应的第二样本特征向量以及预设特征向量,得到所述初始时间段对应的第三样本特征向量;
针对各个时间段中除初始时间段之外的其他时间段中的每个时间段,基于该时间段对应的第二样本特征向量以及该时间段之前的相邻时间段对应的第三样本特征向量,得到该时间段对应的第三样本特征向量;
基于每个时间段对应的第三样本特征向量得到所述预测的视频监测结果;或者,基于各个时间段中最后一个时间段对应的第三样本特征向量得到所述预测的视频监测结果。
一种可选的实施方式中,所述获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量,包括:
针对每个时间段的样本视频片段,确定预设特征信息的特征值;
基于每个预设特征信息的特征值,生成所述样本视频片段对应的样本特征向量。
第二方面,本公开实施例还提供一种直播内容监测装置,包括:
获取模块,用于获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及所述待监测直播间在所述最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;
确定模块,用于基于所述历史特征向量、以及所述当前特征向量,确定将所述历史特征向量和所述当前特征向量中每个特征向量作为目标特征向量时,所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重;
生成模块,用于基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果。
一种可选的实施方式中,所述生成模块,在基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果时,用于:
针对每个目标特征向量,基于所述历史特征向量、所述当前特征向量、以及所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重,得到加权平均后的平均特征向量;基于所述平均特征向量对该目标特征向量进行处理,得到处理后的目标特征向量;
基于处理后的每个目标特征向量,生成所述目标视频片段对应的视频监测结果。
一种可选的实施方式中,所述目标视频片段对应的视频监测结果为基于训练后的直播审核神经网络得到的;所述装置还包括神经网络训练模块,用于通过下述步骤训练所述直播审核神经网络:
获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量;
对各个所述样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第一样本特征向量;
基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量;
基于各个时间段的所述第二样本特征向量,得到的预测的视频监测结果;基于所述预测的视频监测结果以及所述样本直播间对应的标注监测结果,对所述直播审核神经网络进行训练。
一种可选的实施方式中,所述神经网络训练模块,在基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量时,用于:
对各个时间段分别对应的第一样本特征向量进行第一加权平均处理,得到各个时间段分别对应的第一中间样本特征向量,并对各个时间段分别对应的所述第一中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第二中间样本特征向量;
将各个时间段分别对应的所述第一中间样本特征向量和所述第二中间样本特征向量进行融合,得到各个时间段分别对应的第三中间样本特征向量;
对各个时间段分别对应的所述第一样本特征向量进行第二加权平均处理,得到各个时间段分别对应的第四中间样本特征向量;
将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,并对各个时间段分别对应的所述第五中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第六中间样本特征向量;基于各个时间段分别对应的所述第五中间样本特征向量和所述第六中间样本特征向量,得到各个时间段分别对应的所述第二样本特征向量。
一种可选的实施方式中,在加权平均处理为第一加权平均处理时,将第一中间特征向量作为目标中间样本特征向量,在加权平均处理为第二加权平均处理时,将第四中间特征向量作为目标中间样本特征向量;所述神经网络训练模块,在对各个时间段分别对应的第一样本特征向量进行加权平均处理,得到各个时间段分别对应的目标中间样本特征向量时,用于:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重;
基于各个时间段分别对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重、以及各个时间段分别对应的第一样本特征向量,得到该目标时间段对应的加权平均处理后的第一平均样本特征向量;
将该目标时间段对应的第一样本特征向量与所述第一平均样本特征向量进行融合,得到该目标时间段对应的加权平均处理后的目标中间样本特征向量。
一种可选的实施方式中,所述神经网络训练模块,在基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重,包括:
将各个时间段对应的第一样本特征向量分别与该目标时间段的第一样本特征向量进行融合,生成各个时间段分别对应的、融合后的第一样本特征向量;
基于各个时间段分别对应的、融合后的第一样本特征向量,生成各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。
一种可选的实施方式中,所述神经网络训练模块,在将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量时,用于:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第三中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量,得到各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重;
基于各个时间段分别对应的所述第四中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重,得到该目标时间段对应的加权后的第二平均样本特征向量;
将该目标时间段对应的所述第三中间样本特征向量与所述第二平均样本特征向量进行融合,得到该目标时间段对应的所述第五中间样本特征向量。
一种可选的实施方式中,所述神经网络训练模块,在基于各个时间段的所述第二样本特征向量,得到预测的视频监测结果时,用于:
针对初始时间段,基于该初始时间段对应的第二样本特征向量以及预设特征向量,得到所述初始时间段对应的第三样本特征向量;
针对各个时间段中除初始时间段之外的其他时间段中的每个时间段,基于该时间段对应的第二样本特征向量以及该时间段之前的相邻时间段对应的第三样本特征向量,得到该时间段对应的第三样本特征向量;
基于每个时间段对应的第三样本特征向量得到所述预测的视频监测结果;或者,基于各个时间段中最后一个时间段对应的第三样本特征向量得到所述预测的视频监测结果。
一种可选的实施方式中,所述神经网络训练模块,在获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量时,用于:
针对每个时间段的样本视频片段,确定预设特征信息的特征值;
基于每个预设特征信息的特征值,生成所述样本视频片段对应的样本特征向量。
第三方面,本公开实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
第四方面,本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
本公开实施例提供的直播内容监测方法及装置,通过获取待监测直播间在预设时间段内产生的目标视频片段,并为该目标视频片段生成对应的当前特征向量,同时获取在最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;再基于历史特征向量、当前特征向量、以及训练的直播审核神经网络,确定将历史特征向量和当前特征向量中每个特征向量作为目标特征向量时,历史特征向量和当前特征向量相对于目标特征向量的权重;并基于历史特征向量和当前特征向量相对于目标特征向量的权重、目标特征向量、以及直播审核神经网络,生成目标视频片段对应的视频监测结果。由于结合了历史特征向量和当前特征向量相对于目标特征向量的权重、目标特征向量(目标特征向量包括历史特征向量、和当前特征向量),丰富了预设时间段内待检测的特征信息,进而使得生成的预设时间段内的目标视频片段的视频监测结果较为准确,提升了直播内容检测的准确度。且由于当前特征向量和历史特征向量中有包含各种风险的特征信息,通过包含有各种风险的特征信息的各种特征向量,综合得到直播内容的视频监测结果,可以提高直播内容对应的检测结果的准确度。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种直播内容监测方法的流程图;
图2示出了本公开实施例所提供的一种直播内容监测方法中,直播审核神经网络训练过程的流程图;
图3示出了本公开实施例所提供的一种直播内容监测方法中,直播审核神经网络训练过程的流程示意图;
图4示出了本公开实施例所提供的一种直播审核神经网络中,第一transformer层的结构示意图;
图5示出了本公开实施例所提供的一种直播内容监测装置的示意图;
图6示出了本公开实施例所提供的一种电子设备600的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
在直播行业内,某些主播在直播过程中,可能会发表一些违规的言论(比如,辱骂言论),和/或做出一些违规的行为(比如暴力行为)。因此,直播管理平台需要对直播内容进行监测,在监测到上述违规内容时,可以对违规内容对应的直播间进行处理,比如,封禁直播间等。
一般的,直播平台可以使用统计或者机器学习等方法,对当前直播内容的各项风险进行监测,比如风险可以包括暴力行为风险、弹幕风险、低俗风险等。示例性的,可以获取直播间内的当前直播内容,基于当前直播内容和机器学习算法,生成当前直播内容的分值,再根据生成的当前直播内容的分值,确定该直播间是否存在违规行为;比如,若生成的当前直播内容的分值大于或等于设置的分值阈值,则确定该直播间存在违规行为;若生成的当前直播内容的分值小于设置的分值阈值,则确定该直播间不存在违规行为。
但是,上述通过当前直播内容判断直播间是否违规时,可能会存在有些主播的违规行为难以被监测到。比如,在第一时间段内,主播A做出第一轻微违规行为,检测得到该主播A的当前直播内容的分值接近分值阈值,但是未超过分值阈值;在第二时间段内,主播A做出第二轻微违规行为,检测得到该主播A的当前直播内容的分值接近分值阈值,但是未超过分值阈值;在第三时间段内,主播A做出第三轻微违规行为,仍检测得到该主播A的当前直播内容的分值接近分值阈值,但是未超过分值阈值,可知主播A在连续时间段内一直存在有轻微违规行为;即该主播A的直播内容实质上存在有违规行为,此时,通过上述方法无法对主播A的违规行为进行准确检测。
故为了解决上述问题,本公开提供了一种直播内容监测方法,通过获取待监测直播间在预设时间段内产生的目标视频片段,并为该目标视频片段生成对应的当前特征向量,同时获取在最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;再基于历史特征向量、当前特征向量,确定将历史特征向量和当前特征向量中每个特征向量作为目标特征向量时,历史特征向量和当前特征向量相对于目标特征向量的权重;并基于历史特征向量和当前特征向量相对于目标特征向量的权重、目标特征向量,生成目标视频片段对应的视频监测结果。由于结合了历史特征向量和当前特征向量相对于目标特征向量的权重、目标特征向量(目标特征向量包括历史特征向量、和当前特征向量),丰富了预设时间段内待检测的特征信息,进而使得生成的预设时间段内的目标视频片段的视频监测结果较为准确,提升了直播内容检测的准确度。且由于当前特征向量和历史特征向量中有包含各种风险的特征信息,通过包含有各种风险的特征信息的各种特征向量,综合得到直播内容的视频监测结果,可以提高直播内容对应的检测结果的准确度。
针对以上方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本公开针对上述问题所提出的解决方案,都应该是发明人在本公开过程中对本公开做出的贡献。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种直播内容监测方法进行详细介绍,本公开实施例所提供的直播内容监测方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal Digital Assistant,PDA)、手持设备、计算设备等。在一些可能的实现方式中,该直播内容监测方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
为便于对本公开实施例进行理解,首先对本公开实施例所公开的一种直播内容监测方法进行详细介绍。
实施例一
参见图1所示,为本公开实施例提供的直播内容监测方法的流程图,所述方法包括步骤S101~S103,其中:
S101,获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及待监测直播间在最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量。
这里,可以周期性的获取待检测直播间在最近预设时间段内产生的目标视频片段,比如,可以每间隔一分钟获取一次待检测直播间在最近预设时间段内产生的目标视频片段。并可以为目标视频片段生成对应的当前特征向量,具体实施时,可以根据目标视频片段,确定预设特征信息的特征值;基于每个预设特征信息的特征值,生成目标视频片段对应的当前特征向量,比如,预设特征信息中可以包括弹幕风险特征、弹幕数量、言论风险特征、低俗风险特征、直播间对应的主播的粉丝数量、待检测直播间对应的主播被举报的次数等。其中,预设特征信息可以根据实际需要进行设置,此处仅为示例性说明。
在根据目标视频片段确定预设特征信息的特征值时,可以根据目标视频片段直接得到预设特征信息中的特征值,比如,弹幕数量、当前时间内待检测直播间内粉丝的数量、待检测直播间对应的主播被举报的次数等;和/或,也可以根据神经网络得到预设特征信息中的特征值,比如,可以根据目标视频片段和训练的神经网络A确定弹幕风险特征对应的特征值,根据目标视频片段和训练的神经网络B确定言论风险对应的特征值,根据目标视频片段和训练的神经网络C确定言论风险特征对应的特征值等。
预设时间段的时长可以根据需要进行设置,比如,最近预设时间段可以最近1分钟、最近2分钟等。即在最近预设时间段为最近1分钟时,可以在10点10分时,获取待检测直播间10点09分至10点10分这一时间段内产生的时长为1分钟的目标视频片段。
这里,至少一个历史时间段的数量可以根据需要进行设置。比如,在至少一个历史时间段的数量为9个时,可以获取与最近预设时间段相邻的9个历史时间段,即若最近预设时间段为10点09分至10点10分,则与最近预设时间段相邻的9个历史时间段可以包括10点00分至10点01分、10点01分至10点02分、……、10点08分至10点09分。进而可以获取与最近预设时间段相邻的9个历史时间段中,每个历史时间段内产生的视频片段对应的历史特征向量。
S102,基于历史特征向量、以及当前特征向量,确定将历史特征向量和当前特征向量中每个特征向量作为目标特征向量时,历史特征向量和当前特征向量相对于目标特征向量的权重。
具体实施时,可以将每个历史特征向量、和当前特征向量输入至训练的直播审核神经网络,确定将历史特征向量和当前特征向量中每个特征向量作为目标特征向量时,历史特征向量和当前特征向量相对于目标特征向量的权重。
比如,在历史特征向量包括第一历史特征向量、第二历史特征向量时,可以得到将第一历史特征向量作为目标特征向量时,第一历史特征向量、第二历史特征向量、以及当前特征向量分别相对于目标特征向量的权重;可以得到将第二历史特征向量作为目标特征向量时,第一历史特征向量、第二历史特征向量、以及当前特征向量分别相对于目标特征向量的权重;可以得到将当前特征向量作为目标特征向量时,第一历史特征向量、第二历史特征向量、以及当前特征向量分别相对于目标特征向量的权重。
S103,基于历史特征向量和当前特征向量相对于目标特征向量的权重、以及目标特征向量,生成目标视频片段对应的视频监测结果。
这里,在得到历史特征向量和当前特征向量相对于目标特征向量的权重之后,直播审核神经网络可以基于历史特征向量和当前特征向量相对于目标特征向量的权重、目标特征向量、以及直播审核神经网络,得到目标视频片段对应的视频监测结果。
示例性的,视频监测结果可以为该目标视频片段违规的概率,或者,也可以为该目标视频片段的分值等。进一步的,在得到的目标视频片段违规的概率高于设定的概率阈值时,或者,在该目标视频片段的分值高于设置的分值阈值时,则认为该目标视频片段存在违规,可以将该待监测直播间对应的信息(比如,该信息可以包括直播间房间号、直播间对应的主播姓名等)发送给直播间管理平台,使得直播间管理平台的管理人员可以对该待监测直播间进行处理。
本公开实施例中,由于结合了历史特征向量和当前特征向量相对于目标特征向量的权重、目标特征向量(目标特征向量包括历史特征向量、和当前特征向量),丰富了预设时间段内待检测的特征信息,进而使得生成的预设时间段内的目标视频片段的视频监测结果较为准确,提升了直播内容检测的准确度。且由于当前特征向量和历史特征向量中有包含各种风险的特征信息,通过包含有各种风险的特征信息的各种特征向量,综合得到直播内容的视频监测结果,可以提高直播内容对应的检测结果的准确度。
一种可选实施方式中,基于历史特征向量和当前特征向量相对于目标特征向量的权重、以及目标特征向量,生成目标视频片段对应的视频监测结果,包括:
一、针对每个目标特征向量,基于历史特征向量、当前特征向量、以及历史特征向量和当前特征向量相对于目标特征向量的权重,得到加权平均后的平均特征向量;基于平均特征向量对该目标特征向量进行处理,得到处理后的目标特征向量。
二、基于处理后的每个目标特征向量,生成目标视频片段对应的视频监测结果。
针对每个目标特征向量,可以将历史特征向量相对于目标特征向量的权重与对应的历史特征向量相乘,得到加权后的历史特征向量,以及将当前特征向量相对于目标特征向量的权重与当前特征向量相乘,得到加权后的当前特征向量;再可以将加权后的历史特征向量与加权后的当前特征向量求平均,得到平均特征向量。比如,在历史特征向量包括第一历史特征向量、第二历史特征向量时,加权后的第一历史特征向量可以为[x1,x2,…,xn],加权后的第二历史特征向量可以为[y1,y2,…,yn],加权后的当前特征向量可以为[z1,z2,…,zn],则平均特征向量可以为[p1,p2,…,pn],其中,p1=(x1+y1+z1)/3,…,pn=(xn+yn+zn)/3,n为特征向量的维度,n可以为任一正整数。进而可以将平均特征向量与该目标特征向量求和,得到处理后的目标特征向量。最后,可以将处理后的各个目标特征向量输入至直播审核神经网络中,得到目标视频片段对应的视频监测结果。
上述实施方式中,通过确定的平均特征向量对目标特征向量进行处理,使得处理后的目标特征向量中包含有历史特征向量和当前特征向量中的特征信息,丰富了目标特征向量的特征信息,进而使得基于处理后的每个目标特征向量、以及直播审核神经网络,可以较准确的生成目标视频片段对应的视频监测结果。
一种可选实施方式中,目标视频片段对应的视频监测结果为基于训练后的直播审核神经网络得到的;其中,参见图2所示的直播审核神经网络训练过程的流程图,直播审核神经网络的训练过程可以包括S201-S204,其中:
S201,获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量。
S202,对各个样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第一样本特征向量。
S203,基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量。
S204,基于各个时间段的第二样本特征向量,得到的预测的视频监测结果;基于预测的视频监测结果以及样本直播间对应的标注监测结果,对直播审核神经网络进行训练。
上述实施方式中,通过获取多个连续时间段分别对应的样本特征向量,并利用多个连续时间段分别对应的样本特征向量,对直播审核神经网络进行训练,得到训练后的直播审核神经网络,实现了通过训练后的直播审核神经网络确定当前直播内容对应的视频监测结果。
对S201进行说明,可以分批次获取样本直播间的多个连续时间段的样本视频片段,对直播审核神经网络进行多次训练,直至训练后的直播审核神经网络满足截止条件为止,下述对直播审核神经网络的一次训练为例进行说明。
这里,样本直播间中包括的直播间的数量可以根据需要进行确定,以及每个直播间的样本视频片段的数量也可以根据需要进行设置。比如,样本直播间中可以包括512个直播间、样本视频片段的数量可以为10,则可以获取512个直播间中,每个直播间的10个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量,即可以得到512个直播间中每个直播间对应的10个样本特征向量。
一种可选实施方式中,获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量,可以包括:一、针对每个时间段的样本视频片段,确定预设特征信息的特征值;二、基于每个预设特征信息的特征值,生成样本视频片段对应的样本特征向量。
示例性的,预设特征信息中可以包括弹幕风险特征、弹幕数量、言论风险特征、低俗风险特征、暴力风险特征、直播间对应的主播的粉丝数量、待检测直播间对应的主播被举报的次数等。其中,预设特征信息可以根据实际需要进行设置,此处仅为示例性说明。其中,预设特征信息中包括的预设特征的数量可以根据实际需要进行设置,比如,预设特征信息中可以包括132个预设特征。
在根据样本视频片段确定预设特征信息的特征值时,可以根据样本视频片段直接得到预设特征信息中的特征值,比如,弹幕数量、直播间对应的主播的粉丝数、直播间对应的主播被举报的次数等;和/或,也可以根据神经网络得到预设特征信息中的特征值,比如,可以根据样本视频片段和训练的神经网络A确定弹幕风险特征对应的特征值,根据样本视频片段和训练的神经网络B确定言论风险对应的特征值,根据样本视频片段和训练的神经网络C确定言论风险特征对应的特征值等。承接上述示例继续说明,可以得到每个样本视频片段对应的132维样本特征向量,即得到每个直播间对应的10个时间段中,每个时间段对应的132维样本特征向量。
上述实施方式中,由于预设特征信息中包含有设置的各种特征信息,比如,预设特征信息可以包括弹幕风险特征、言论风险特征、低俗风险特征、暴力风险特征等,使得生成的样本特征向量中融合了各种特征信息,进而基于融合了各种特征信息的样本特征向量对直播审核神经网络训练时,可以使得训练后的直播审核神经网络能够较准确的得到视频监测结果。
对S202进行说明,可以将每个直播间对应的10个132维样本特征向量输入至全连接层中进行全连接处理,得到各个时间段分别对应的第一样本特征向量。在全连接处理包括多次时,则可以将每个直播间对应的10个132维样本特征向量输入至第一全连接层中进行第一次全连接处理,再将得到的结果输入至第二全连接层中进行第二次全连接处理,直至包括的多个全连接层分别得到处理结果为止,将最后一个全连接层输出的结果作为第一样本特征向量。
对S203进行说明,一种可选实施方式中,基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量,包括:
步骤一、对各个时间段分别对应的第一样本特征向量进行第一加权平均处理,得到各个时间段分别对应的第一中间样本特征向量,并对各个时间段分别对应的第一中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第二中间样本特征向量。
步骤二、将各个时间段分别对应的第一中间样本特征向量和第二中间样本特征向量进行融合,得到各个时间段分别对应的第三中间样本特征向量。
步骤三、对各个时间段分别对应的第一样本特征向量进行第二加权平均处理,得到各个时间段分别对应的第四中间样本特征向量。
步骤四、将各个时间段分别对应的第三中间样本特征向量与第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,并对各个时间段分别对应的第五中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第六中间样本特征向量;基于各个时间段分别对应的所述第五中间样本特征向量和所述第六中间样本特征向量,得到各个时间段分别对应的第二样本特征向量。
上述实施方式中,通过对各个时间段分别对应的第一样本特征向量进行处理,得到各个时间段分别对应的第二样本特征向量,为后续基于第二样本特征向量得到预测的视频监测结果提供了数据支持。
针对步骤一,对各个时间段分别对应的第一样本特征向量进行第一加权平均处理,得到各个时间段分别对应的第一中间样本特征向量的过程可以包括:将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
一、基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。
二、基于各个时间段分别对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重、以及各个时间段分别对应的第一样本特征向量,得到该目标时间段对应的加权平均处理后的第一平均样本特征向量。
三、将该目标时间段对应的第一样本特征向量与第一平均样本特征向量进行融合,得到该目标时间段对应的加权平均处理后的第一中间样本特征向量。
一种可选的实施方式中,基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重,包括:
将各个时间段对应的第一样本特征向量分别与该目标时间段的第一样本特征向量进行融合,生成各个时间段分别对应的、融合后的第一样本特征向量;基于各个时间段分别对应的、融合后的第一样本特征向量,生成各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。
这里可以将各个时间段中的每个时间段分别作为目标时间段进行处理。假设各个时间段包括第一时间段、第二时间段、……、第十时间段,下述以将第一时间段作为目标时间段为例进行详细说明。
在具体实施时,可以将第一时间段(即目标时间段)的第一样本特征向量和各个时间段分别对应的第一样本特征向量(即第一时间段对应的第一样本特征向量、第二时间段对应的第一样本特征向量、……、第十时间段对应的第一样本特征向量)进行扩展相加,得到各个时间段分别对应的融合后的第一样本特征向量。即可以将第一时间段对应的第一样本特征向量与第一时间段对应的第一样本特征向量相加,得到第一时间段对应的融合后的第一样本特征向量;可以将第一时间段对应的第一样本特征向量与第二时间段对应的第一样本特征向量相加,得到第二时间段对应的融合后的第一样本特征向量;进而得到了各个时间段分别对应的融合后的第一样本特征向量。
接着对各个时间段分别对应的融合后的第一样本特征向量进行至少一次全连接处理,并将全连接处理后得到的结果输入至重塑reshape层中进行处理,再将reshape层处理后的结果输入至softmax层中进行归一化处理,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。其中,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重的过程有多种,此处仅为示例性说明。
进一步的,可以将各个时间段分别对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重、与各个时间段分别对应的第一样本特征向量进行相乘,并将相乘之后得到的各个时间段分别对应的加权后的第一样本特征向量求平均,得到第一平均样本特征向量。比如,若各个时间段包括10个时间段,每个时间段对应的第一样本特征向量的维度为128,第一时间段对应的第一样本特征向量可以为[t1-0、t1-1、…、t1-127]、第二时间段对应的第一样本特征向量可以为[t2-0、t2-1、…、t2-127]、……、第十时间段对应的第一样本特征向量可以为[t10-0、t10-1、…、t10-127],各个时间段分别对应的第一样本特征向量相对于该第一时间段的第一样本特征向量的权重为[q1、q2、…、q10],则第一平均样本特征向量可以为[p0、p1、…、p127],其中,p0=(t1-0×q1+t2-0×q2+…+t10-0×q10)/10,……,p127=(t1-127×q1+t2-127×q2+…+t10-127×q10)/10。
最后可以将第一平均样本特征向量与第一时间段对应的第一样本特征向量进行相加,得到该第一时间段对应的加权平均处理后的第一中间样本特征向量。
其中,得到第二时间段对应的第一中间样本特征向量的过程、……、得到第十时间段对应的第一中间样本特征向量的过程,可参考上述得到第一时间段对应的第一中间样本特征向量的过程,此处不再赘述。
步骤一中,可以将各个时间段分别对应的第一中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第二中间样本特征向量。
针对步骤二,可以将各个时间段分别对应的第一中间样本特征向量和各个时间段分别对应的第二中间样本特征向量进行融合,得到各个时间段分别对应的第三中间样本特征向量。即将第一时间段对应的第一中间样本特征向量与第一时间段对应的第二中间样本特征向量进行融合(比如相加),得到第一时间段对应的第三中间样本特征向量。
针对步骤三,对各个时间段分别对应的第一样本特征向量进行第二加权平均处理,得到各个时间段分别对应的第四中间样本特征向量的过程,可参考步骤一中得到各个时间段分别对应的第一中间样本特征向量的过程,此处不再赘述。
针对步骤四,将各个时间段分别对应的第三中间样本特征向量与第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,可以包括:将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
一、基于该目标时间段的第三中间样本特征向量、以及各个时间段分别对应的第四中间样本特征向量,得到各个时间段分别对应的第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重。
二、基于各个时间段分别对应的第四中间样本特征向量、以及各个时间段分别对应的第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重,得到该目标时间段对应的加权后的第二平均样本特征向量。
三、将该目标时间段对应的第三中间样本特征向量与第二平均样本特征向量进行融合,得到该目标时间段对应的第五中间样本特征向量。
上述过程中,通过将各个时间段分别对应的第三中间样本特征向量与第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,使得得到的第五中间样本特征向量中包含第三中间样本特征向量和第四中间样本特征向量中的重点特征信息,进而基于第五中间样本特征向量,可以较准确的得到各个时间段分别对应的第二样本特征向量。
这里可以将各个时间段中的每个时间段分别作为目标时间段进行处理。假设各个时间段包括第一时间段、第二时间段、……、第十时间段,下述以将第一时间段作为目标时间段为例进行详细说明。
在具体实施时,可以将第一时间段(即目标时间段)的第三中间样本特征向量和各个时间段分别对应的第四中间样本特征向量(即第一时间段对应的第四中间样本特征向量、第二时间段对应的第四中间样本特征向量、……、第十时间段对应的第四中间样本特征向量)进行扩展相加,得到各个时间段分别对应的第二融合特征向量。即可以将第一时间段对应的第三中间样本特征向量与第一时间段对应的第四中间样本特征向量相加,得到第一时间段对应的第二融合特征向量;可以将第一时间段对应的第三中间样本特征向量与第二时间段对应的第四中间样本特征向量相加,得到第二时间段对应的第二融合特征向量;进而得到了各个时间段分别对应的第二融合特征向量。
接着对各个时间段分别对应的第二融合特征向量进行至少一次全连接处理,并将全连接处理后得到的结果输入至reshape层中进行处理,再将reshape层处理后的结果输入至softmax层中进行归一化处理,得到各个时间段分别对应的第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重。其中,得到各个时间段对应的第四中间样本特征向量相对于该第一时间段的第三中间样本特征向量的权重的过程有多种,此处仅为示例性说明。
进一步的,可以将各个时间段分别对应的第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重、与各个时间段分别对应的第四中间样本特征向量进行相乘,并将相乘之后得到的各个时间段分别对应的加权后的第四中间样本特征向量求平均,得到第二平均样本特征向量。比如,若各个时间段包括10个时间段,每个时间段对应的第一样本特征向量的维度为128,第一时间段对应的第四中间样本特征向量可以为[t1-0-4、t1-1-4、…、t1-127-4]、第二时间段对应的第四中间样本特征向量可以为[t2-0-4、t2-1-4、…、t2-127-4]、……、第十时间段对应的第四中间样本特征向量可以为[t10-0-4、t10-1-4、…、t10-127-4],各个时间段分别对应的第四中间样本特征向量相对于该第一时间段的第三中间样本特征向量的权重为[q1-2、q2-2、…、q10-2],则第二平均样本特征向量可以为[p0-2、p1-2、…、p127-2],其中,p0-2=(t1-0-4×q1-2+t2-0-4×q2-2+…+t10-0-4×q10-2)/10,……,p127-2=(t1-127-4×q1-2+t2-127-4×q2-2+…+t10-127-4×q10-2)/10。
最后可以将第二平均样本特征向量与第一时间段对应的第三中间样本特征向量进行相加,得到该第一时间段对应的交叉加权平均处理后的第五中间样本特征向量。
其中,得到第二时间段对应的第五中间样本特征向量的过程、……、得到第十时间段对应的第五中间样本特征向量的过程,可参考上述得到第一时间段对应的第五中间样本特征向量的过程,此处不再赘述。
在得到各个时间段分别对应的第五中间样本特征向量之后,可以对各个时间段分别对应的第五中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第六中间样本特征向量;基于各个时间段分别对应的所述第五中间样本特征向量和所述第六中间样本特征向量,得到各个时间段分别对应的第二样本特征向量。
对S204进行说明,可以基于预测的视频监测结果以及样本直播间对应的标注监测结果,确定损失值,基于损失值调整直播审核神经网络的参数,直至训练后的直播审核神经网络(即参数调整后的直播审核神经网络)的准确度大于设置的准确度阈值,或者,直至训练后的直播审核神经网络的损失值小于设置的损失阈值等。
一种可选实施方式中,基于各个时间段的第二样本特征向量,得到预测的视频监测结果,包括:
步骤一、针对初始时间段,基于该初始时间段对应的第二样本特征向量以及预设特征向量,得到初始时间段对应的第三样本特征向量;
步骤二、针对各个时间段中除初始时间段之外的其他时间段中的每个时间段,基于该时间段对应的第二样本特征向量以及该时间段之前的相邻时间段对应的第三样本特征向量,得到该时间段对应的第三样本特征向量;
步骤三、基于每个时间段对应的第三样本特征向量得到预测的视频监测结果;或者,基于各个时间段中最后一个时间段对应的第三样本特征向量得到预测的视频监测结果。
这里,可以将初始时间段对应的第二样本特征向量输入至初始时间段对应的长短期记忆(Long Short-Term Memory,LSTM)特征处理单元中,使得初始时间段对应的LSTM特征处理单元可以基于该初始时间段对应的第二样本特征向量以及预设特征向量,得到初始时间段对应的第三样本特征向量。
在得到初始时间段对应的第三样本特征向量之后,可以将初始时间段对应的第三样本特征向量、及第二时间段对应的第二样本特征向量,输入至第二时间段对应的LSTM特征处理单元中,得到第二时间段对应的第三样本特征向量,进而可以得到各个时间段中每个时间段对应的第三样本特征向量。
在具体实施时,可以基于每个时间段对应的第三样本特征向量综合得到预测的视频监测结果;或者,也可以基于各个时间段中最后一个时间段对应的第三样本特征向量得到预测的视频监测结果,比如,若各个时间段包括10个时间段,则可以基于第十时间段对应的第三样本特征向量得到预测的视频监测结果。
在具体实施时,可以将每个时间段对应的第三样本特征向量,或者,将各个时间段中最后一个时间段对应的第三样本特征向量,输入至reshape层进行处理,并将得到的处理结果输入至全连接层中进行全连接处理,再将全连接处理后得到的处理结果输入至sigmoid层中,得到预测的视频监测结果。
这里,通过使用LSTM特征处理单元对各个时间段的第二样本特征向量进行处理,得到各个时间段分别对应的第三样本特征向量,使得生成的每个时间段对应的第三样本特征向量中包含有该时间段之前时间段对应的重点特征信息,进而利用第三样本特征向量,得到预测的视频监测结果之后,利用该视频监测结果,可以得到较准确的、训练后的直播审核神经网络。
示例性的,该直播审核神经网络中的LSTM特征处理单元中可以包括随机失活dropout处理模块,通过添加dropout处理模块实现对直播审核神经网络中的特征检测器的选择,可以有效的避免直播审核神经网络的过拟合现象。
这里,对直播审核神经网络的训练过程进行示例性说明,参见图3所示,输入的训练样本数据可以为512×10×132的特征矩阵,其中,512表示直播间的数量,10表示每个直播间对应的时间段的数量,132表示每个时间段对应的特征向量的维度,即512×10×132的特征矩阵包括512个直播间中,每个直播间对应的10个时间段中,每个时间段对应的132维的样本特征向量。
利用全连接层对输入的训练样本数据进行处理,得到512×10×256的第一特征矩阵,即得到由第一样本特征向量构成的第一样本特征矩阵;在将第一特征矩阵输入至第一transformer层中进行特征处理,得到中间样本特征矩阵,并将得到的中间样本特征矩阵输入至第二transformer层中进行特征处理得到第二样本特征矩阵512×10×256,即得到由第二样本特征向量构成的第二样本特征矩阵;将第二样本特征矩阵进行信息拆分,并将信息拆分后的初始时间段对应的第二样本特征矩阵512×1×256输入至初始时间段对应的LSTM、dropout特征处理单元中进行处理,得到初始时间段对应的第三样本特征矩阵512×1×256;将信息拆分后的第二时间段对应的第二样本特征矩阵512×1×256以及初始时间段对应的第三样本特征矩阵512×1×256输入至第二时间段对应的LSTM、dropout特征处理单元中进行处理,得到第二时间段对应的第三样本特征矩阵512×1×256;进而可以得到第十时间段对应的第三样本特征矩阵512×1×256。
最后将第十时间段对应的第三样本特征矩阵512×1×256输入至reshape层中进行处理得到第一预测矩阵512×256,在将第一预测矩阵512×256输入至全连接层进行处理,得到第二预测矩阵512×1,最后将第二预测矩阵512×1输入至sigmoid层中进行归一化处理,得到目标预测矩阵512×1,即得到每个直播间对应的预测的视频监测结果。
第一transformer层可以包括至少一个编码模块和至少一个解码模块,参见图4所示,图4中示出的第一transformer层包括一个编码模块和一个解码模块,这里,结合图4对第一transformer层的处理过程进行示例性说明,将第一样本特征矩阵512×10×256分别输入至编码模块与解码模块中,编码模块中的第一attention层对第一样本矩阵进行处理,并将处理后的结果进行加权平均处理,得到第一中间样本特征矩阵,即得到由第一中间样本特征向量构成的第一中间样本特征矩阵;将第一中间样本特征矩阵输入至全连接层中进行全连接处理,得到第二中间样本特征矩阵,即得到由第二中间样本特征向量构成的第二中间样本特征矩阵;将第一中间样本特征矩阵和第二中间样本特征矩阵进行融合,得到第三中间样本特征矩阵,并将得到的第三中间样本特征矩阵输入至解码模块中。
解码模块中的第二attention层对第一样本矩阵进行处理,并将处理后的结果进行加权平均处理,得到第四中间样本特征矩阵,即得到由第四中间样本特征向量构成的第四中间样本特征矩阵。将第三中间样本特征矩阵以及第四中间样本特征矩阵输入至交叉attention层中进行处理,并将交叉attention层处理后的结果进行加权平均处理,得到第五中间样本特征矩阵,即得到由第五中间样本特征向量构成的第五中间样本特征矩阵,在将第五中间样本特征矩阵进行全连接处理,得到第六中间样本特征矩阵,即得到由第六中间样本特征向量构成的第六中间样本特征矩阵。最后将第六中间样本特征矩阵与第五中间样本特征矩阵相加,再将相加后得到的处理结果进行全连接处理,得到中间样本特征矩阵512×10×256。
其中,第二transformer层对中间样本特征矩阵进行处理,得到第二样本特征矩阵的过程(即得到由第二样本特征向量构成的第二样本特征矩阵的过程),可参考第一transformer层的处理过程,此处不再详细说明。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与直播内容监测方法对应的直播内容监测装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述直播内容监测方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
实施例二
参照图5所示,为本公开实施例提供的一种直播内容监测装置的示意图,所述装置包括:获取模块501、确定模块502、生成模块503、以及神经网络训练模块504;其中,
获取模块501,用于获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及所述待监测直播间在所述最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;
确定模块502,用于基于所述历史特征向量、以及所述当前特征向量,确定将所述历史特征向量和所述当前特征向量中每个特征向量作为目标特征向量时,所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重;
生成模块503,用于基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果。
一种可选的实施方式中,所述生成模块503,在基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果时,用于:
针对每个目标特征向量,基于所述历史特征向量、所述当前特征向量、以及所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重,得到加权平均后的平均特征向量;基于所述平均特征向量对该目标特征向量进行处理,得到处理后的目标特征向量;
基于处理后的每个目标特征向量,生成所述目标视频片段对应的视频监测结果。
一种可选的实施方式中,所述目标视频片段对应的视频监测结果为基于训练后的直播审核神经网络得到的;
所述装置还包括神经网络训练模块504,用于通过下述步骤训练所述直播审核神经网络:
获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量;
对各个所述样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第一样本特征向量;
基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量;
基于各个时间段的所述第二样本特征向量,得到的预测的视频监测结果;基于所述预测的视频监测结果以及所述样本直播间对应的标注监测结果,对所述直播审核神经网络进行训练。
一种可选的实施方式中,所述神经网络训练模块504,在基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量时,用于:
对各个时间段分别对应的第一样本特征向量进行第一加权平均处理,得到各个时间段分别对应的第一中间样本特征向量,并对各个时间段分别对应的所述第一中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第二中间样本特征向量;
将各个时间段分别对应的所述第一中间样本特征向量和所述第二中间样本特征向量进行融合,得到各个时间段分别对应的第三中间样本特征向量;
对各个时间段分别对应的所述第一样本特征向量进行第二加权平均处理,得到各个时间段分别对应的第四中间样本特征向量;
将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,并对各个时间段分别对应的所述第五中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第六中间样本特征向量;基于各个时间段分别对应的所述第五中间样本特征向量和所述第六中间样本特征向量,得到各个时间段分别对应的所述第二样本特征向量。
一种可选的实施方式中,在加权平均处理为第一加权平均处理时,将第一中间特征向量作为目标中间样本特征向量,在加权平均处理为第二加权平均处理时,将第四中间特征向量作为目标中间样本特征向量;所述神经网络训练模块504,在对各个时间段分别对应的第一样本特征向量进行加权平均处理,得到各个时间段分别对应的目标中间样本特征向量时,用于:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重;
基于各个时间段分别对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重、以及各个时间段分别对应的第一样本特征向量,得到该目标时间段对应的加权平均处理后的第一平均样本特征向量;
将该目标时间段对应的第一样本特征向量与所述第一平均样本特征向量进行融合,得到该目标时间段对应的加权平均处理后的目标中间样本特征向量。
一种可选的实施方式中,所述神经网络训练模块,在基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重,包括:
将各个时间段对应的第一样本特征向量分别与该目标时间段的第一样本特征向量进行融合,生成各个时间段分别对应的、融合后的第一样本特征向量;
基于各个时间段分别对应的、融合后的第一样本特征向量,生成各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。
一种可选的实施方式中,所述神经网络训练模块504,在将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量时,用于:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第三中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量,得到各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重;
基于各个时间段分别对应的所述第四中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重,得到该目标时间段对应的加权后的第二平均样本特征向量;
将该目标时间段对应的所述第三中间样本特征向量与所述第二平均样本特征向量进行融合,得到该目标时间段对应的所述第五中间样本特征向量。
一种可选的实施方式中,所述神经网络训练模块504,在基于各个时间段的所述第二样本特征向量,得到预测的视频监测结果时,用于:
针对初始时间段,基于该初始时间段对应的第二样本特征向量以及预设特征向量,得到所述初始时间段对应的第三样本特征向量;
针对各个时间段中除初始时间段之外的其他时间段中的每个时间段,基于该时间段对应的第二样本特征向量以及该时间段之前的相邻时间段对应的第三样本特征向量,得到该时间段对应的第三样本特征向量;
基于每个时间段对应的第三样本特征向量得到所述预测的视频监测结果;或者,基于各个时间段中最后一个时间段对应的第三样本特征向量得到所述预测的视频监测结果。
一种可选的实施方式中,所述神经网络训练模块504,在获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量时,用于:
针对每个时间段的样本视频片段,确定预设特征信息的特征值;
基于每个预设特征信息的特征值,生成所述样本视频片段对应的样本特征向量。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
基于同一技术构思,本申请实施例还提供了一种电子设备。参照图6所示,为本申请实施例提供的电子设备600的结构示意图,包括处理器601、存储器602、和总线603。其中,存储器602用于存储执行指令,包括内存6021和外部存储器6022;这里的内存6021也称内存储器,用于暂时存放处理器601中的运算数据,以及与硬盘等外部存储器6022交换的数据,处理器601通过内存6021与外部存储器6022进行数据交换,当电子设备600运行时,处理器601与存储器602之间通过总线603通信,使得处理器601在执行以下指令:
获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及所述待监测直播间在所述最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;
基于所述历史特征向量、以及所述当前特征向量,确定将所述历史特征向量和所述当前特征向量中每个特征向量作为目标特征向量时,所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重;
基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的直播内容监测方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例所提供的直播内容监测方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的直播内容监测方法的步骤,具体可参见上述方法实施例,在此不再赘述。
本公开实施例还提供一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种方法。该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software DevelopmentKit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

Claims (12)

1.一种直播内容监测方法,其特征在于,包括:
获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及所述待监测直播间在所述最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;
基于所述历史特征向量、以及所述当前特征向量,确定将所述历史特征向量和所述当前特征向量中每个特征向量作为目标特征向量时,所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重;
基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果。
2.根据权利要求1所述的方法,其特征在于,基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果,包括:
针对每个目标特征向量,基于所述历史特征向量、所述当前特征向量、以及所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重,得到加权平均后的平均特征向量;基于所述平均特征向量对该目标特征向量进行处理,得到处理后的目标特征向量;
基于处理后的每个目标特征向量,生成所述目标视频片段对应的视频监测结果。
3.根据权利要求1所述的方法,其特征在于,所述目标视频片段对应的视频监测结果为基于训练后的直播审核神经网络得到的;
通过下述步骤训练所述直播审核神经网络:
获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量;
对各个所述样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第一样本特征向量;
基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量;
基于各个时间段的所述第二样本特征向量,得到的预测的视频监测结果;基于所述预测的视频监测结果以及所述样本直播间对应的标注监测结果,对所述直播审核神经网络进行训练。
4.根据权利要求3所述的方法,其特征在于,所述基于各个时间段分别对应的第一样本特征向量,得到各个时间段对应的加权平均后的第二样本特征向量,包括:
对各个时间段分别对应的第一样本特征向量进行第一加权平均处理,得到各个时间段分别对应的第一中间样本特征向量,并对各个时间段分别对应的所述第一中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第二中间样本特征向量;
将各个时间段分别对应的所述第一中间样本特征向量和所述第二中间样本特征向量进行融合,得到各个时间段分别对应的第三中间样本特征向量;
对各个时间段分别对应的所述第一样本特征向量进行第二加权平均处理,得到各个时间段分别对应的第四中间样本特征向量;
将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,并对各个时间段分别对应的所述第五中间样本特征向量进行至少一次全连接处理,得到各个时间段分别对应的第六中间样本特征向量;基于各个时间段分别对应的所述第五中间样本特征向量和所述第六中间样本特征向量,得到各个时间段分别对应的所述第二样本特征向量。
5.根据权利要求4所述的方法,其特征在于,在加权平均处理为第一加权平均处理时,将第一中间特征向量作为目标中间样本特征向量,在加权平均处理为第二加权平均处理时,将第四中间特征向量作为目标中间样本特征向量,对各个时间段分别对应的第一样本特征向量进行加权平均处理,得到各个时间段分别对应的目标中间样本特征向量,包括:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重;
基于各个时间段分别对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重、以及各个时间段分别对应的第一样本特征向量,得到该目标时间段对应的加权平均处理后的第一平均样本特征向量;
将该目标时间段对应的第一样本特征向量与所述第一平均样本特征向量进行融合,得到该目标时间段对应的加权平均处理后的目标中间样本特征向量。
6.根据权利要求5所述的方法,其特征在于,基于该目标时间段的第一样本特征向量、以及各个时间段分别对应的第一样本特征向量,得到各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重,包括:
将各个时间段对应的第一样本特征向量分别与该目标时间段的第一样本特征向量进行融合,生成各个时间段分别对应的、融合后的第一样本特征向量;
基于各个时间段分别对应的、融合后的第一样本特征向量,生成各个时间段对应的第一样本特征向量相对于该目标时间段的第一样本特征向量的权重。
7.根据权利要求4所述的方法,其特征在于,将各个时间段分别对应的所述第三中间样本特征向量与所述第四中间样本特征向量进行交叉加权平均处理,得到各个时间段分别对应的第五中间样本特征向量,包括:
将各个时间段中的每个时间段分别作为目标时间段,执行以下处理:
基于该目标时间段的第三中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量,得到各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重;
基于各个时间段分别对应的所述第四中间样本特征向量、以及各个时间段分别对应的所述第四中间样本特征向量相对于该目标时间段的第三中间样本特征向量的权重,得到该目标时间段对应的加权后的第二平均样本特征向量;
将该目标时间段对应的所述第三中间样本特征向量与所述第二平均样本特征向量进行融合,得到该目标时间段对应的所述第五中间样本特征向量。
8.根据权利要求3所述的方法,其特征在于,基于各个时间段的所述第二样本特征向量,得到预测的视频监测结果,包括:
针对初始时间段,基于该初始时间段对应的第二样本特征向量以及预设特征向量,得到所述初始时间段对应的第三样本特征向量;
针对各个时间段中除初始时间段之外的其他时间段中的每个时间段,基于该时间段对应的第二样本特征向量以及该时间段之前的相邻时间段对应的第三样本特征向量,得到该时间段对应的第三样本特征向量;
基于每个时间段对应的第三样本特征向量得到所述预测的视频监测结果;或者,基于各个时间段中最后一个时间段对应的第三样本特征向量得到所述预测的视频监测结果。
9.根据权利要求3所述的方法,其特征在于,所述获取样本直播间的多个连续时间段的样本视频片段中,每个样本视频片段对应的样本特征向量,包括:
针对每个时间段的样本视频片段,确定预设特征信息的特征值;
基于每个预设特征信息的特征值,生成所述样本视频片段对应的样本特征向量。
10.一种直播内容监测装置,其特征在于,包括:
获取模块,用于获取待监测直播间在最近预设时间段内产生的目标视频片段对应的当前特征向量,以及所述待监测直播间在所述最近预设时间段之前的至少一个历史时间段内产生的视频片段对应的历史特征向量;
确定模块,用于基于所述历史特征向量、以及所述当前特征向量,确定将所述历史特征向量和所述当前特征向量中每个特征向量作为目标特征向量时,所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重;
生成模块,用于基于所述历史特征向量和所述当前特征向量相对于所述目标特征向量的权重、以及所述目标特征向量,生成所述目标视频片段对应的视频监测结果。
11.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至9任一所述的直播内容监测方法的步骤。
12.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至9任意一项所述的直播内容监测方法的步骤。
CN202010634404.1A 2020-07-02 2020-07-02 一种直播内容识别方法及装置 Active CN111836064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010634404.1A CN111836064B (zh) 2020-07-02 2020-07-02 一种直播内容识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010634404.1A CN111836064B (zh) 2020-07-02 2020-07-02 一种直播内容识别方法及装置

Publications (2)

Publication Number Publication Date
CN111836064A true CN111836064A (zh) 2020-10-27
CN111836064B CN111836064B (zh) 2022-01-07

Family

ID=72900049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010634404.1A Active CN111836064B (zh) 2020-07-02 2020-07-02 一种直播内容识别方法及装置

Country Status (1)

Country Link
CN (1) CN111836064B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507884A (zh) * 2020-12-10 2021-03-16 北京有竹居网络技术有限公司 直播内容的检测方法、装置、可读介质和电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100091848A1 (en) * 2002-04-18 2010-04-15 Takeshi Chujoh Video encoding/decoding method and apparatus
CN108206972A (zh) * 2018-01-02 2018-06-26 武汉斗鱼网络科技有限公司 直播间人气处理方法、装置、服务器及存储介质
CN108600775A (zh) * 2018-05-22 2018-09-28 广州虎牙信息科技有限公司 直播视频的监控方法、装置、服务器和存储介质
CN109308463A (zh) * 2018-09-12 2019-02-05 北京奇艺世纪科技有限公司 一种视频目标识别方法、装置及设备
CN109345260A (zh) * 2018-10-09 2019-02-15 北京芯盾时代科技有限公司 一种欺诈检测模型训练方法和装置及欺诈检测方法和装置
CN109446379A (zh) * 2018-10-31 2019-03-08 北京字节跳动网络技术有限公司 用于处理信息的方法和装置
CN110012302A (zh) * 2018-01-05 2019-07-12 阿里巴巴集团控股有限公司 一种网络直播监测方法及装置、数据处理方法
US20190373315A1 (en) * 2016-04-01 2019-12-05 Oath Inc. Computerized system and method for automatically detecting and rendering highlights from streaming videos
CN110659570A (zh) * 2019-08-21 2020-01-07 北京地平线信息技术有限公司 目标对象姿态跟踪方法、神经网络的训练方法及装置
CN110827138A (zh) * 2019-10-31 2020-02-21 北京芯盾时代科技有限公司 一种推送信息确定方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100091848A1 (en) * 2002-04-18 2010-04-15 Takeshi Chujoh Video encoding/decoding method and apparatus
US20190373315A1 (en) * 2016-04-01 2019-12-05 Oath Inc. Computerized system and method for automatically detecting and rendering highlights from streaming videos
CN108206972A (zh) * 2018-01-02 2018-06-26 武汉斗鱼网络科技有限公司 直播间人气处理方法、装置、服务器及存储介质
CN110012302A (zh) * 2018-01-05 2019-07-12 阿里巴巴集团控股有限公司 一种网络直播监测方法及装置、数据处理方法
CN108600775A (zh) * 2018-05-22 2018-09-28 广州虎牙信息科技有限公司 直播视频的监控方法、装置、服务器和存储介质
CN109308463A (zh) * 2018-09-12 2019-02-05 北京奇艺世纪科技有限公司 一种视频目标识别方法、装置及设备
CN109345260A (zh) * 2018-10-09 2019-02-15 北京芯盾时代科技有限公司 一种欺诈检测模型训练方法和装置及欺诈检测方法和装置
CN109446379A (zh) * 2018-10-31 2019-03-08 北京字节跳动网络技术有限公司 用于处理信息的方法和装置
CN110659570A (zh) * 2019-08-21 2020-01-07 北京地平线信息技术有限公司 目标对象姿态跟踪方法、神经网络的训练方法及装置
CN110827138A (zh) * 2019-10-31 2020-02-21 北京芯盾时代科技有限公司 一种推送信息确定方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507884A (zh) * 2020-12-10 2021-03-16 北京有竹居网络技术有限公司 直播内容的检测方法、装置、可读介质和电子设备

Also Published As

Publication number Publication date
CN111836064B (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
CN111836063B (zh) 一种直播内容识别方法及装置
CN110417721B (zh) 安全风险评估方法、装置、设备及计算机可读存储介质
US10601857B2 (en) Automatically assessing a severity of a vulnerability via social media
US20200143045A1 (en) Method for hardening a machine learning model against extraction
CN111163072B (zh) 机器学习模型中特征值的确定方法、装置及电子设备
CN111008335B (zh) 一种信息处理方法、装置、设备及存储介质
CN110782291A (zh) 广告投放用户确定方法及装置、存储介质及电子装置
CN111078742A (zh) 用户分类模型训练方法、用户分类方法及装置
CN111836064B (zh) 一种直播内容识别方法及装置
Raghebi et al. A new trust evaluation method based on reliability of customer feedback for cloud computing
CN115345293A (zh) 基于差分隐私的文本处理模型的训练方法及装置
Alanazi et al. A people-to-people content-based reciprocal recommender using hidden markov models
CN111667018B (zh) 一种对象聚类的方法、装置、计算机可读介质及电子设备
CN111770352B (zh) 安全检测方法、装置、电子设备及存储介质
CN112613974A (zh) 一种风险预警方法、装置、设备及可读存储介质
CN111988327A (zh) 威胁行为检测和模型建立方法、装置、电子设备及存储介质
Mokhtari et al. A context-aware reputation-based model of trust for open multi-agent environments
CN108804917B (zh) 一种文件检测方法、装置、电子设备及存储介质
US11468191B2 (en) Method and apparatus for identifying applets of risky content based on differential privacy preserving
CN111694753B (zh) 一种应用程序测试方法、装置及计算机存储介质
CN114741606A (zh) 企业推荐方法、装置、计算机可读介质及电子设备
CN113393269A (zh) 触点媒体转化率的确定方法、装置、电子设备和存储介质
CN112328779A (zh) 训练样本构建方法、装置、终端设备及存储介质
CN109286667B (zh) 用户账号管理方法及装置
CN112257111A (zh) 动态数值脱敏方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Tiktok vision (Beijing) Co.,Ltd.

CP01 Change in the name or title of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20230707

Address after: 100190 1309, 13th floor, building 4, Zijin Digital Park, Haidian District, Beijing

Patentee after: Beijing volcano Engine Technology Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Douyin Vision Co.,Ltd.

TR01 Transfer of patent right