CN111050193A - 用户画像构建方法、装置、计算机设备和存储介质 - Google Patents
用户画像构建方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111050193A CN111050193A CN201911101736.7A CN201911101736A CN111050193A CN 111050193 A CN111050193 A CN 111050193A CN 201911101736 A CN201911101736 A CN 201911101736A CN 111050193 A CN111050193 A CN 111050193A
- Authority
- CN
- China
- Prior art keywords
- bullet screen
- emotion
- data
- model
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 30
- 230000008451 emotion Effects 0.000 claims abstract description 146
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims description 53
- 238000013256 Gubra-Amylin NASH model Methods 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 23
- 230000006399 behavior Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 18
- 238000003062 neural network model Methods 0.000 claims description 15
- 230000000306 recurrent effect Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000002996 emotional effect Effects 0.000 description 5
- 238000013515 script Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 206010063659 Aversion Diseases 0.000 description 2
- 241001539473 Euphoria Species 0.000 description 2
- 206010015535 Euphoric mood Diseases 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4662—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
- H04N21/4666—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4667—Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4668—Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4756—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种用户画像构建方法、装置、计算机设备和存储介质,其中,方法包括:先获取视频播放时发送的弹幕数据、并记录弹幕发送时间,通过预设弹幕情感分析模型对弹幕数据进行情感分析,准确得到弹幕数据对应的情感标签,再采集弹幕发送时间前后预设时间范围内的画面信息,通过预设画面内容识别模型,准确获取画面信息对应的画面内容,以准确获取的视频播放中的弹幕数据以及画面内容为用户画像构建数据基础,可以准确构建用户画像。
Description
技术领域
本申请涉及用户画像构建技术领域,特别是涉及一种用户画像构建方法、装置、计算机设备和存储介质。
背景技术
用户画像又称用户角色,作为一种勾画目标用户、联系用户诉求与设计方向的有效工具,基于构建的用户画像可以针对性对用户提供服务,给用户带来便捷,例如基于用户画像推送产品(商品)信息、基于用户画像推送音乐以及基于用户画像推送视频等,正是由于用户画像具有上述有效的功能,目前用户画像在各领域得到了广泛的应用。
随着用户画像大规模推广应用,如何在当前场景下高效且准确生成用户画像已经成为难题。以应用于基于用户画像推荐视频场景下为例,目前常规的用户画像构建方式是记录用户视频播放操作,识别历史播放视频的类型、时长、频率等信息来构建用户画像。
上述方式虽然可以构建出用户画像,但是很多时候用户只是对整个视频中某个画面感兴趣,例如对某个视频中出现的风景感兴趣、对某个视频中出现产品感兴趣、或对某个视频中出现的明星感兴趣,采用上述基于用户视频播放操作的用户画像构建显然无法关注到这些方面因素,造成用户画像构建不准确,无法准确定义用户角色。
发明内容
基于此,有必要针对上述技术问题,提供一种能够准确构建用户画像的用户画像构建方法、装置、计算机设备和存储介质。
一种用户画像构建方法,所述方法包括:
获取视频播放时发送的弹幕数据、并记录弹幕发送时间;
根据预设弹幕情感分析模型对所述弹幕数据进行情感分析,得到所述弹幕数据对应的情感标签;
采集所述弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取所述画面信息对应的画面内容;
根据所述情感标签以及所述画面内容,构建用户画像。
在其中一个实施例中,所述根据预设弹幕情感分析模型对所述弹幕数据进行情感分析,得到所述弹幕数据对应的情感标签之前,还包括:
获取历史弹幕数据以及所述历史弹幕数据对应标注的情感值;
根据所述历史弹幕数据,得到多个弹幕词语;
获取各弹幕词语对应的情感值平均值,根据所述多个弹幕词语以及对应的所述情感值平均值,生成弹幕情感训练数据;
将所述弹幕情感训练数据输入至基于循环递归神经网络的模型,训练得到预设弹幕情感分析模型。
在其中一个实施例中,所述采集所述弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取所述画面信息对应的画面内容之前,还包括:
获取样本视频画面信息以及对应的文本描述;
根据所述样本视频画面信息以及所述对应的文本描述训练GAN模型,得到预设画面内容识别模型。
在其中一个实施例中,所述根据所述样本视频画面信息以及所述对应的文本描述训练GAN模型,得到预设画面内容识别模型包括:
连续或周期性抽取所述样本视频画面信息中视频帧;
将抽取的视频帧作为GAN模型输入,并将所述对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型。
在其中一个实施例中,所述将抽取的视频帧作为GAN模型输入,并将所述对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型包括:
获取抽取的视频帧,解析所述抽取的视频帧对应高度、宽度以及通道的维度数据;
将所述抽取的视频帧以及对应的所述维度数据送入神经网络模型中编码器进行编码,得到编码数据;
将所述编码数据导入与所述编码器对应的解码器,解码输出文本描述;
根据解码输出的文本描述以及所述对应的文本描述调整神经网络模型中分类器,得到预设画面内容识别模型。
在其中一个实施例中,所述根据所述情感标签以及所述画面内容,构建用户画像之后,还包括:
根据构建的用户画像,推荐视频至用户。
在其中一个实施例中,所述根据构建的用户画像,推荐视频至用户之后,还包括:
采集用户对已推荐视频的操作行为数据,操作行为包括点击观看、收藏、评论以及发送弹幕;
根据所述操作行为数据,优化所述用户画像。
一种用户画像构建装置,所述装置包括:
数据获取模块,用于获取视频播放时发送的弹幕数据、并记录弹幕发送时间;
情感分析模块,用于根据预设弹幕情感分析模型对所述弹幕数据进行情感分析,得到所述弹幕数据对应的情感标签;
内容获取模块,用于采集所述弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取所述画面信息对应的画面内容;
画像构建模块,用于根据所述情感标签以及所述画面内容,构建用户画像。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如上述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述的方法的步骤。
上述用户画像构建方法、装置、计算机设备和存储介质,先获取视频播放时发送的弹幕数据、并记录弹幕发送时间,通过预设弹幕情感分析模型对所述弹幕数据进行情感分析,准确得到所述弹幕数据对应的情感标签,再采集所述弹幕发送时间前后预设时间范围内的画面信息,通过预设画面内容识别模型,准确获取所述画面信息对应的画面内容,以准确获取的视频播放中的弹幕数据以及画面内容为用户画像构建数据基础,可以准确构建用户画像。
附图说明
图1为一个实施例中用户画像构建方法的应用环境图;
图2为一个实施例中用户画像构建方法的流程示意图;
图3为另一个实施例中用户画像构建方法的流程示意图;
图4为一个实施例中用户画像构建装置的结构框图;
图5为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的用户画像构建方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。用户在终端102上操作,通过终端102浏览视频并且发送弹幕,服务器104捕捉到终端102播放在播放视频过程中用户输入的弹幕,服务器104具体获取视频播放时发送的弹幕数据、并记录弹幕发送时间,根据预设弹幕情感分析模型对弹幕数据进行情感分析,得到弹幕数据对应的情感标签;采集弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取画面信息对应的画面内容;根据情感标签以及画面内容,构建用户画像,将构建的用户画像保存,以便下一步基于构建的画像给用户推荐视频、推荐产品的操作。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种用户画像构建方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
S200:获取视频播放时发送的弹幕数据、并记录弹幕发送时间。
用户在终端上操作,终端从服务器(一般是远端服务器)获取视频播放数据,终端将获取的视频数据播放给用户看。视频本身的连续画面是很能反映用户态度的对象的,因为实际场景中,正是用户看到连续的画面后,做出了发送弹幕的行为,所以在本申请中着重注意挖掘了弹幕发送时的视频连续的帧的信息,基于这些数据内构件用户画像。具体来说,终端采集用户输入的弹幕数据,并将弹幕数据上传至服务器,服务器获取该弹幕数据,并且记录下弹幕发送时间t,例如用户观看NBA(National Basketball Association,美国职业篮球联赛)视频,看到画面精彩的部分的时候,用户通过终端输入设备(例如键盘)输入“这个三分球真帅”的弹幕数据,终端将该弹幕数据上传至服务器,服务器获取该“这个三分球真帅”的弹幕数据并且记录下弹幕发送时间为视频播放第5分钟。
S400:根据预设弹幕情感分析模型对弹幕数据进行情感分析,得到弹幕数据对应的情感标签。
预设弹幕情感分析模型是预先构建的模型,其具体用于对弹幕进行情感分析,确定用户在发送上述弹幕数据时的情感。预设弹幕情感分析模块具体可以基于样本弹幕数据以及对应的情感标识训练得到,即可以先获取样本弹幕数据,采用人工或人工智能方式标注每条弹幕数据对应的情感,基于样本弹幕数据和对应的情感构成训练数据进行训练。情感分析具体是指分析用户的情感表现,用户情感主要包括高兴、惊讶、欣喜、厌恶、无视、愤怒等。
非必要的,在预设弹幕情感分析模块训练过程中可以针对情感进行定性和定量的设定,定性是指分析用户是正向的情绪(例如高兴、惊讶以及欣喜等)还是负面的情绪(例如厌恶、无视以及愤怒等),定量是指对每种情绪分别赋予具体的情感值,正向的情绪对应正数情感值,负面的情绪赌赢负面情感值,以最显著的正向情绪对应的情感值作为最大正向情感值(例如设定为1),以最显著的负面情绪对应的情感值作为最大(绝对值最大)负面情感值(例如设定为-1),在基于正向情绪的程度和负面情绪的程度设定不同情绪对应的情感值。这标定过程可以由人工手动标定初始数据,机器学习优化后续数据。
S600:采集弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取画面信息对应的画面内容。
采集弹幕发送时间t前后预设时间范围(t1,t2)内的画面信息,即采集t1到t时刻内对应的视频帧k1以及采集t到t2时刻内对应的视频帧k2,将采集到的视频帧k1和视频帧k2输入到预设画面内容识别模型,得到画面信息对应的画面内容。预设画面内容识别模型是预先构建好的模型,其具体可以基于神经网络模型和训练数据构建,训练数据具体包括视频帧以及该视频帧对应的文本内容(即画面内容),在训练数据生成阶段可以采用人工方式将视频帧对应的文本内容记录下来,再将该视频帧和文本内容一起作为训练数据,以训练神经网络模型,得到预设画面内容识别模型。非必要的,针对电影、电视剧等视频帧,由于电影和电视剧都有对应的剧本,可以直接将视频帧和对应剧本文段导入到神经网络模型进行训练,得到预设画面内容识别模型。
S800:根据情感标签以及画面内容,构建用户画像。
根据步骤S400得到的情感标签以及S600得到的画面内容,构建用户画像。进一步来说,根据情感标签和画面内容可以知悉用户感兴趣的内容、不感兴趣的内容以及讨厌/不期望看到的内容,基于这些信息构建用户画像,以便下一步可以准确推荐视频给用户,给用户带来便利。更进一步来说,例如基于情感标签以及画面内容得到如下信息:画面出现投三分球内容时,用户情感标签为惊讶、喜悦;画面出现篮球明星A入场内容时,用户情感标签为激动、高兴,则基于这部分信息构建的用户画像为:喜欢篮球、对三分球投篮感兴趣以及喜欢篮球明星A,那么基于这部分用户画像在后续操作可以给用户推送三分球投篮、以及篮球明星A的视频,另外还可以基于其他信息构建的用户画像数据进一步筛选更适合推荐给用户的视频。
上述用户画像构建方法,先获取视频播放时发送的弹幕数据、并记录弹幕发送时间,通过预设弹幕情感分析模型对弹幕数据进行情感分析,准确得到弹幕数据对应的情感标签,再采集弹幕发送时间前后预设时间范围内的画面信息,通过预设画面内容识别模型,准确获取画面信息对应的画面内容,以准确获取的视频播放中的弹幕数据以及画面内容为用户画像构建数据基础,可以准确构建用户画像。
如图3所示,在其中一个实施例中,步骤S400之前还包括:
S320:获取历史弹幕数据以及历史弹幕数据对应标注的情感值。
历史弹幕数据是指在历史记录中采集到的弹幕数据,例如常规“666”、“好棒”、“好厉害”、“盲僧这个大招放的帅”等。服务器在采集历史弹幕数据的同时还获取历史弹幕数据对应预先标注的情感值,情感值是预先标注的,具体情感值包括表征正向情绪的正数以及表征负面情绪的负数,在标注时,可以设定非常正向情绪对应的极大值(例如1)以及非常负面情绪对应的极大值(绝对值,例如-1),再根据历史经验,以情绪程度为基准对其他正向情绪以及负面情绪标注对应的情感值,服务器在运行本申请用户画像构建方法时,直接获取该情感值。进一步的,在情感值标注过程中同样可以采用小样本+机器学习的方式,通过人工标注部分情感数据对应的情感值,再由计算机通过机器学习的方式对所有情感数据标注对应的情感值,实现高效且全面的标注。
S340:根据历史弹幕数据,得到多个弹幕词语。
根据弹幕数据,得到弹幕特有的弹幕词语集,例如常规弹幕词语“666”、“帅”、以及“干的漂亮”等。具体来说,可以统计每个弹幕词语出现词频,根据词频大小顺序依次排序构建弹幕词语集,还可针对词频很低的词语进行删除,以优化整个弹幕词语集,提高后续处理效率。
S360:获取各弹幕词语对应的情感值平均值,根据多个弹幕词语以及对应的情感值平均值,生成弹幕情感训练数据。
由于单个历史弹幕数据可能由不同方式或在不同环境标注了情感值,为尽量降低应用环境的干扰,在这里获取每个弹幕词语对应的情感值平均值,以及弹幕词语以及对应的情感值平均值作为弹幕情感训练数据。
S380:将弹幕情感训练数据输入至基于循环递归神经网络的模型,训练得到预设弹幕情感分析模型。
基于循环递归神经网络的模型包括LSTM(Long Short-Term Memory,长短期记忆网络)、GRU(Gated Recurrent Unit,门控循环单元)等常规模型,将弹幕情感训练数据输入到上述模型中对该模型进行训练,得到预设弹幕情感分析模型。进一步来说,训练过程可以基于弹幕情感训练数据进行特征的无监督挖掘训练。
如图3所示,在其中一个实施例中,步骤S600之前,还包括:
S520:获取样本视频画面信息以及对应的文本描述。
S540:根据样本视频画面信息以及对应的文本描述训练GAN模型,得到预设画面内容识别模型。
文本描述可以是人为临时记录样本视频画面内容或者是直接获取视频画面对应的剧本等文本内容(一般针对电影以及电视剧采用这样),如人为文本描述视频画面,某五秒钟的画面为“一群身穿湖人队队服的篮球运动员缓缓走入球馆,人声沸腾,灯光闪烁”,类似于电视剧或电影的剧本。基于得到的样本训练数据以连续画面作为输入至GAN模型,以文本描述作为GAN模型输出,不断训练GAN模型,得到预设画面内容识别模型。
具体来说,在训练过程中可以采用连续或周期性抽取样本视频画面信息中视频帧;将抽取的视频帧作为GAN模型输入,并将对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型。连续抽取是指在视频画面信息中每一帧图像都抽取,并且抽取的图像帧是连续的;周期性抽取是指在视频画面信息中每隔m帧图像抽取一个视频帧。
在其中一个实施例中,上述用户画像构建方法还包括:
获取当前播放视频类型;识别与当前播放视频类型对应的弹幕类型;根据对应的弹幕类型,获取关联的预设弹幕情感分析模型。
在实际应用中,在不同类型的视频播放场景下,可能会有不同的弹幕类型,例如某些视频对应的弹幕类型为单纯的文字类型、而某些视频对应的弹幕类型为单纯的表情以及符号类型,还有某些视频对应的弹幕类型包含文字和表情以及符号类型。在进行弹幕情感分析时,针对不同弹幕类型需要基于不同的情感分析模型,在这里先针对弹幕类型进行识别,进而得到关联的预设弹幕情感分析模型,可以有效提高弹幕情感分析效率,即一定程度上增加最终用户画像构建的效率。具体来说,识别当前播放视频类型可以基于视频播放网址以及视频标题、关键字等信息。
在其中一个实施例中,将抽取的视频帧作为GAN模型输入,并将对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型包括:获取抽取的视频帧,解析抽取的视频帧对应高度、宽度以及通道的维度数据;将抽取的视频帧以及对应的维度数据送入神经网络模型中编码器进行编码,得到编码数据;将编码数据导入与编码器对应的解码器,解码输出文本描述;根据解码输出的文本描述以及对应的文本描述调整神经网络模型中分类器,得到预设画面内容识别模型。
在GAN模型训练过程中需要调整的主要包括生成器、编码器(encoder)、解码器(decoder)以及分类器的参数。具体来说,生成器方面,此时输入数据维度情况为(batchsize,timesteps,height,width,channels),timesteps是抽取的帧,可以是完全连续的,也可以是每m帧抽取一帧。后三个维度(高、宽、通道)是每一帧画面的信息。对于每一个timestep的画面信息使用同样的卷积神经网络提取画面的内容,对于连续的timesteps,使用LSTM、GRU、Transformer等组成的encoder进行编码,然后送入类似的decoder,解码输出文本描述,这种方式既可以捕捉连续画面的时间信息,也可以捕捉其空间信息;分类器方面需要根据输入的连续画面信息判断生成的描述文本是否是正确的描述。
在其中一个实施例中,根据情感标签以及画面内容,构建用户画像之后,还包括:根据构建的用户画像,推荐视频至用户。
在得到用户画像之后有针对性给用户推荐视频,以便用户了解自身所喜欢、所接受的视频,尽量规避推送引起用户负面情绪的视频,给用户带来便利和良好的体验。非必要的,除了基于用户画像推荐视频至用户之外,还可以基于用户画像推荐合适的产品给用户,以给用户带来便利。
在其中一个实施例中,根据构建的用户画像,推荐视频至用户之后,还包括:
采集用户对已推荐视频的操作行为数据,操作行为包括点击观看、收藏、评论以及发送弹幕;根据操作行为数据,优化用户画像。
在本实施例中,引入反馈优化机制,针对已推荐给到用户的视频,响应并采集用户对已推荐视频的操作行为数据,包括用户对已推荐的视频进行点击观看、收藏、评论留言以及发送弹幕,根据这些操作行为数据进一步优化用户画像,例如若用户对推荐的视频收藏,表明用户对视频内容是非常感兴趣的,可以根据该视频内容的类型进一步添加或优化用户画像中的标签;又如,若用户对推荐的视频都未点击观看直接关闭,表情用户很大程度上不喜欢本次推荐的视频内容,需要在后续中尽量避免推荐此类视频,优化用户画像。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
另外,如图4所示,本申请还提供一种用户画像构建装置,装置包括:
数据获取模块200,用于获取视频播放时发送的弹幕数据、并记录弹幕发送时间;
情感分析模块400,用于根据预设弹幕情感分析模型对弹幕数据进行情感分析,得到弹幕数据对应的情感标签;
内容获取模块600,用于采集弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取画面信息对应的画面内容;
画像构建模块800,用于根据情感标签以及画面内容,构建用户画像。
上述用户画像构建装置,先获取视频播放时发送的弹幕数据、并记录弹幕发送时间,通过预设弹幕情感分析模型对弹幕数据进行情感分析,准确得到弹幕数据对应的情感标签,再采集弹幕发送时间前后预设时间范围内的画面信息,通过预设画面内容识别模型,准确获取画面信息对应的画面内容,以准确获取的视频播放中的弹幕数据以及画面内容为用户画像构建数据基础,可以准确构建用户画像。
在其中一个实施例中,上述用户画像构建装置还包括情感分析模型生成模块,用于获取历史弹幕数据以及历史弹幕数据对应标注的情感值;根据历史弹幕数据,得到多个弹幕词语;获取各弹幕词语对应的情感值平均值,根据多个弹幕词语以及对应的情感值平均值,生成弹幕情感训练数据;将弹幕情感训练数据输入至基于循环递归神经网络的模型,训练得到预设弹幕情感分析模型。
在其中一个实施例中,上述用户画像构建装置还包括内容识别模型生成模块,用于获取样本视频画面信息以及对应的文本描述;根据样本视频画面信息以及对应的文本描述训练GAN模型,得到预设画面内容识别模型。
在其中一个实施例中,内容识别模型生成模块还用于连续或周期性抽取样本视频画面信息中视频帧;将抽取的视频帧作为GAN模型输入,并将对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型。
在其中一个实施例中,内容识别模型生成模块还用于获取抽取的视频帧,解析抽取的视频帧对应高度、宽度以及通道的维度数据;将抽取的视频帧以及对应的维度数据送入神经网络模型中编码器进行编码,得到编码数据;将编码数据导入与编码器对应的解码器,解码输出文本描述;根据解码输出的文本描述以及对应的文本描述调整神经网络模型中分类器,得到预设画面内容识别模型。
在其中一个实施例中,上述用户画像构建装置还包括视频推荐模块,用于根据构建的用户画像,推荐视频至用户。
在其中一个实施例中,上述用户画像构建装置还包括画像优化模块,用于采集用户对已推荐视频的操作行为数据,操作行为包括点击观看、收藏、评论以及发送弹幕;根据操作行为数据,优化用户画像。
关于用户画像构建装置的具体限定可以参见上文中对于用户画像构建方法的限定,在此不再赘述。上述用户画像构建装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储历史弹幕以及对应情感标注等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种用户画像构建方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取历史弹幕数据以及历史弹幕数据对应标注的情感值;
根据历史弹幕数据,得到多个弹幕词语;
获取各弹幕词语对应的情感值平均值,根据多个弹幕词语以及对应的情感值平均值,生成弹幕情感训练数据;
将弹幕情感训练数据输入至基于循环递归神经网络的模型,训练得到预设弹幕情感分析模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取样本视频画面信息以及对应的文本描述;根据样本视频画面信息以及对应的文本描述训练GAN模型,得到预设画面内容识别模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
连续或周期性抽取样本视频画面信息中视频帧;将抽取的视频帧作为GAN模型输入,并将对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取抽取的视频帧,解析抽取的视频帧对应高度、宽度以及通道的维度数据;将抽取的视频帧以及对应的维度数据送入神经网络模型中编码器进行编码,得到编码数据;将编码数据导入与编码器对应的解码器,解码输出文本描述;根据解码输出的文本描述以及对应的文本描述调整神经网络模型中分类器,得到预设画面内容识别模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据构建的用户画像,推荐视频至用户。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
采集用户对已推荐视频的操作行为数据,操作行为包括点击观看、收藏、评论以及发送弹幕;根据操作行为数据,优化用户画像。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取历史弹幕数据以及历史弹幕数据对应标注的情感值;
根据历史弹幕数据,得到多个弹幕词语;
获取各弹幕词语对应的情感值平均值,根据多个弹幕词语以及对应的情感值平均值,生成弹幕情感训练数据;
将弹幕情感训练数据输入至基于循环递归神经网络的模型,训练得到预设弹幕情感分析模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取样本视频画面信息以及对应的文本描述;根据样本视频画面信息以及对应的文本描述训练GAN模型,得到预设画面内容识别模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
连续或周期性抽取样本视频画面信息中视频帧;将抽取的视频帧作为GAN模型输入,并将对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取抽取的视频帧,解析抽取的视频帧对应高度、宽度以及通道的维度数据;将抽取的视频帧以及对应的维度数据送入神经网络模型中编码器进行编码,得到编码数据;将编码数据导入与编码器对应的解码器,解码输出文本描述;根据解码输出的文本描述以及对应的文本描述调整神经网络模型中分类器,得到预设画面内容识别模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据构建的用户画像,推荐视频至用户。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
采集用户对已推荐视频的操作行为数据,操作行为包括点击观看、收藏、评论以及发送弹幕;根据操作行为数据,优化用户画像。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种用户画像构建方法,所述方法包括:
获取视频播放时发送的弹幕数据、并记录弹幕发送时间;
根据预设弹幕情感分析模型对所述弹幕数据进行情感分析,得到所述弹幕数据对应的情感标签;
采集所述弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取所述画面信息对应的画面内容;
根据所述情感标签以及所述画面内容,构建用户画像。
2.根据权利要求1所述的方法,其特征在于,所述根据预设弹幕情感分析模型对所述弹幕数据进行情感分析,得到所述弹幕数据对应的情感标签之前,还包括:
获取历史弹幕数据以及所述历史弹幕数据对应标注的情感值;
根据所述历史弹幕数据,得到多个弹幕词语;
获取各弹幕词语对应的情感值平均值,根据所述多个弹幕词语以及对应的所述情感值平均值,生成弹幕情感训练数据;
将所述弹幕情感训练数据输入至基于循环递归神经网络的模型,训练得到预设弹幕情感分析模型。
3.根据权利要求1所述的方法,其特征在于,所述采集所述弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取所述画面信息对应的画面内容之前,还包括:
获取样本视频画面信息以及对应的文本描述;
根据所述样本视频画面信息以及所述对应的文本描述训练GAN模型,得到预设画面内容识别模型。
4.根据权利要求3所述的方法,其特征在于,所述根据所述样本视频画面信息以及所述对应的文本描述训练GAN模型,得到预设画面内容识别模型包括:
连续或周期性抽取所述样本视频画面信息中视频帧;
将抽取的视频帧作为GAN模型输入,并将所述对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型。
5.根据权利要求4所述的方法,其特征在于,所述将抽取的视频帧作为GAN模型输入,并将所述对应的文本描述作为GAN模型输出,训练GAN模型,得到预设画面内容识别模型包括:
获取抽取的视频帧,解析所述抽取的视频帧对应高度、宽度以及通道的维度数据;
将所述抽取的视频帧以及对应的所述维度数据送入神经网络模型中编码器进行编码,得到编码数据;
将所述编码数据导入与所述编码器对应的解码器,解码输出文本描述;
根据解码输出的文本描述以及所述对应的文本描述调整神经网络模型中分类器,得到预设画面内容识别模型。
6.根据权利要求1所述的方法,其特征在于,所述根据所述情感标签以及所述画面内容,构建用户画像之后,还包括:
根据构建的用户画像,推荐视频至用户。
7.根据权利要求6所述的方法,其特征在于,所述根据构建的用户画像,推荐视频至用户之后,还包括:
采集用户对已推荐视频的操作行为数据,操作行为包括点击观看、收藏、评论以及发送弹幕;
根据所述操作行为数据,优化所述用户画像。
8.一种用户画像构建装置,其特征在于,所述装置包括:
数据获取模块,用于获取视频播放时发送的弹幕数据、并记录弹幕发送时间;
情感分析模块,用于根据预设弹幕情感分析模型对所述弹幕数据进行情感分析,得到所述弹幕数据对应的情感标签;
内容获取模块,用于采集所述弹幕发送时间前后预设时间范围内的画面信息,根据预设画面内容识别模型,获取所述画面信息对应的画面内容;
画像构建模块,用于根据所述情感标签以及所述画面内容,构建用户画像。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911101736.7A CN111050193B (zh) | 2019-11-12 | 2019-11-12 | 用户画像构建方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911101736.7A CN111050193B (zh) | 2019-11-12 | 2019-11-12 | 用户画像构建方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111050193A true CN111050193A (zh) | 2020-04-21 |
CN111050193B CN111050193B (zh) | 2022-06-10 |
Family
ID=70232090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911101736.7A Expired - Fee Related CN111050193B (zh) | 2019-11-12 | 2019-11-12 | 用户画像构建方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111050193B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626774A (zh) * | 2020-05-21 | 2020-09-04 | 广州欢网科技有限责任公司 | 一种广告投放系统、方法和可读存储介质 |
CN111881180A (zh) * | 2020-07-22 | 2020-11-03 | Oppo广东移动通信有限公司 | 构建方法、构建装置、终端及可读存储介质 |
CN112395556A (zh) * | 2020-09-30 | 2021-02-23 | 广州市百果园网络科技有限公司 | 异常用户检测模型训练方法、异常用户审核方法及装置 |
CN112752159A (zh) * | 2020-08-25 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 一种互动方法和相关装置 |
CN113010727A (zh) * | 2021-03-22 | 2021-06-22 | 平安科技(深圳)有限公司 | 直播平台画像的构建方法、装置、设备及存储介质 |
CN113344184A (zh) * | 2021-06-03 | 2021-09-03 | 网易(杭州)网络有限公司 | 用户画像预测方法、装置、终端和计算机可读存储介质 |
CN114201516A (zh) * | 2020-09-03 | 2022-03-18 | 腾讯科技(深圳)有限公司 | 一种用户画像构建的方法、信息推荐的方法以及相关装置 |
CN114286155A (zh) * | 2021-12-07 | 2022-04-05 | 咪咕音乐有限公司 | 基于弹幕的画面元素修改方法、装置、设备和存储介质 |
CN114339417A (zh) * | 2021-12-30 | 2022-04-12 | 未来电视有限公司 | 一种视频推荐的方法、终端设备和可读存储介质 |
CN115499704A (zh) * | 2022-08-22 | 2022-12-20 | 北京奇艺世纪科技有限公司 | 一种视频推荐方法、装置、可读存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010141260A1 (en) * | 2009-06-01 | 2010-12-09 | Telcordia Technologies, Inc. | System and method for processing commentary that is related to content |
CN108737859A (zh) * | 2018-05-07 | 2018-11-02 | 华东师范大学 | 基于弹幕的视频推荐方法和装置 |
CN110020437A (zh) * | 2019-04-11 | 2019-07-16 | 江南大学 | 一种视频和弹幕相结合的情感分析及可视化方法 |
CN110163673A (zh) * | 2019-05-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种基于机器学习的热度预测方法、装置、设备及存储介质 |
-
2019
- 2019-11-12 CN CN201911101736.7A patent/CN111050193B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010141260A1 (en) * | 2009-06-01 | 2010-12-09 | Telcordia Technologies, Inc. | System and method for processing commentary that is related to content |
CN108737859A (zh) * | 2018-05-07 | 2018-11-02 | 华东师范大学 | 基于弹幕的视频推荐方法和装置 |
CN110020437A (zh) * | 2019-04-11 | 2019-07-16 | 江南大学 | 一种视频和弹幕相结合的情感分析及可视化方法 |
CN110163673A (zh) * | 2019-05-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种基于机器学习的热度预测方法、装置、设备及存储介质 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626774A (zh) * | 2020-05-21 | 2020-09-04 | 广州欢网科技有限责任公司 | 一种广告投放系统、方法和可读存储介质 |
CN111881180A (zh) * | 2020-07-22 | 2020-11-03 | Oppo广东移动通信有限公司 | 构建方法、构建装置、终端及可读存储介质 |
CN112752159B (zh) * | 2020-08-25 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 一种互动方法和相关装置 |
CN112752159A (zh) * | 2020-08-25 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 一种互动方法和相关装置 |
CN114201516A (zh) * | 2020-09-03 | 2022-03-18 | 腾讯科技(深圳)有限公司 | 一种用户画像构建的方法、信息推荐的方法以及相关装置 |
CN112395556A (zh) * | 2020-09-30 | 2021-02-23 | 广州市百果园网络科技有限公司 | 异常用户检测模型训练方法、异常用户审核方法及装置 |
CN113010727A (zh) * | 2021-03-22 | 2021-06-22 | 平安科技(深圳)有限公司 | 直播平台画像的构建方法、装置、设备及存储介质 |
CN113010727B (zh) * | 2021-03-22 | 2024-02-02 | 平安科技(深圳)有限公司 | 直播平台画像的构建方法、装置、设备及存储介质 |
CN113344184A (zh) * | 2021-06-03 | 2021-09-03 | 网易(杭州)网络有限公司 | 用户画像预测方法、装置、终端和计算机可读存储介质 |
CN114286155A (zh) * | 2021-12-07 | 2022-04-05 | 咪咕音乐有限公司 | 基于弹幕的画面元素修改方法、装置、设备和存储介质 |
CN114339417A (zh) * | 2021-12-30 | 2022-04-12 | 未来电视有限公司 | 一种视频推荐的方法、终端设备和可读存储介质 |
CN114339417B (zh) * | 2021-12-30 | 2024-05-10 | 未来电视有限公司 | 一种视频推荐的方法、终端设备和可读存储介质 |
CN115499704A (zh) * | 2022-08-22 | 2022-12-20 | 北京奇艺世纪科技有限公司 | 一种视频推荐方法、装置、可读存储介质及电子设备 |
CN115499704B (zh) * | 2022-08-22 | 2023-12-29 | 北京奇艺世纪科技有限公司 | 一种视频推荐方法、装置、可读存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111050193B (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111050193B (zh) | 用户画像构建方法、装置、计算机设备和存储介质 | |
CN110020437B (zh) | 一种视频和弹幕相结合的情感分析及可视化方法 | |
CN109145784B (zh) | 用于处理视频的方法和装置 | |
CN107707931B (zh) | 根据视频数据生成解释数据、数据合成方法及装置、电子设备 | |
CN112929745B (zh) | 视频数据处理方法、装置、计算机可读存储介质和设备 | |
CN109635680B (zh) | 多任务属性识别方法、装置、电子设备及存储介质 | |
CN109862397B (zh) | 一种视频分析方法、装置、设备和存储介质 | |
CN110839173A (zh) | 一种音乐匹配方法、装置、终端及存储介质 | |
CN110119711A (zh) | 一种获取视频数据人物片段的方法、装置及电子设备 | |
US11605402B2 (en) | Video-log production system | |
CN113709384A (zh) | 基于深度学习的视频剪辑方法、相关设备及存储介质 | |
CN109766767A (zh) | 行为数据推送方法、装置、计算机设备和存储介质 | |
CN114666663A (zh) | 用于生成视频的方法和装置 | |
CN109871736B (zh) | 自然语言描述信息的生成方法及装置 | |
CN108197336B (zh) | 一种视频查找的方法及装置 | |
US20220172476A1 (en) | Video similarity detection method, apparatus, and device | |
CN107547922B (zh) | 信息处理方法、装置、系统及计算机可读存储介质 | |
CN113038185B (zh) | 弹幕处理方法及装置 | |
CN112102157A (zh) | 视频换脸方法、电子设备和计算机可读存储介质 | |
CN116028669A (zh) | 一种基于短视频的视频搜索方法、装置、系统和存储介质 | |
CN113297417B (zh) | 视频推送方法、装置、电子设备和存储介质 | |
CN112188116B (zh) | 基于对象的视频合成方法、客户端及系统 | |
CN113407772B (zh) | 视频推荐模型的生成方法、视频推荐方法、装置 | |
CN113934870B (zh) | 多媒体推荐模型的训练方法、装置及服务器 | |
CN110489592B (zh) | 视频分类方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220610 |
|
CF01 | Termination of patent right due to non-payment of annual fee |