CN116156271A - 视频标题的生成方法、装置、电子设备及可读存储介质 - Google Patents

视频标题的生成方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN116156271A
CN116156271A CN202211609550.4A CN202211609550A CN116156271A CN 116156271 A CN116156271 A CN 116156271A CN 202211609550 A CN202211609550 A CN 202211609550A CN 116156271 A CN116156271 A CN 116156271A
Authority
CN
China
Prior art keywords
video
target
barrage
text
bullet screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211609550.4A
Other languages
English (en)
Other versions
CN116156271B (zh
Inventor
于洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing QIYI Century Science and Technology Co Ltd
Original Assignee
Beijing QIYI Century Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing QIYI Century Science and Technology Co Ltd filed Critical Beijing QIYI Century Science and Technology Co Ltd
Priority to CN202211609550.4A priority Critical patent/CN116156271B/zh
Publication of CN116156271A publication Critical patent/CN116156271A/zh
Application granted granted Critical
Publication of CN116156271B publication Critical patent/CN116156271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明实施例提供了一种视频标题的生成方法:获取目标视频的视频简介、台词文本和弹幕合集;将视频简介和台词文本输入到预训练的第一深度学习模型中,得到目标视频的特征信息;在弹幕合集中目标弹幕的评分达到预期评分的情况下,将目标弹幕和特征信息输入到预训练的第二深度学习模型中,得到目标视频的视频标题。本发明实施例通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。

Description

视频标题的生成方法、装置、电子设备及可读存储介质
技术领域
本发明涉及视频处理技术领域,特别是涉及一种视频标题的生成方法、装置、电子设备及可读存储介质。
背景技术
随着短视频在网络中热度越来越高,每天在各种视频平台中生成的短视频数量也越来越多,因此,对于短视频起标题的工作量也越来越大。目前,除了人工标注短视频的标题外,还能够通过训练模型自动对短视频生成标题,但是目前通过训练模型自动生成短视频标题无法与视频内容和用户反馈进行紧密相关,因此出现了视频标题与视频内容之间关联性较低的问题。
发明内容
本发明实施例的目的在于提供一种视频标题的生成方法、装置、电子设备及可读存储介质,以解决现有技术中视频标题与视频内容之间关联性较低的问题。
在本发明实施的第一方面,首先提供了一种视频标题的生成方法,包括:
获取目标视频的视频简介、台词文本和弹幕合集;
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
可选的,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:
获取目标视频的初始台词文本和初始弹幕合集;
根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:
获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述语言学习模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
将训练好的剧情简介定位模型确定为所述第一深度学习模型。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
将所述目标视频简介确定为所述目标视频的特征信息。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
可选的,所述在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
获取创建的标题生成模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
将训练好的标题生成模型确定为所述第二深度学习模型。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题,包括:
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行文本整合,生成目标文本;
将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
在本发明实施的第二方面,还提供了一种视频标题的生成装置,包括:
获取模块,用于获取目标视频的视频简介、台词文本和弹幕合集;
提取模块,用于将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
输入模块,用于在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
在本发明实施例的第三方面,还提供了一种电子设备,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面中任一项所述的视频标题的生成方法的步骤。
在本发明实施例的第四方面,还提供了一种计算机可读存储介质,所述可读存储介质上存储有程序或指令,所述程序或指令被处理器执行时实现如第一方面中任一项所述的视频标题的生成方法的步骤。
本发明实施例提供了一种视频标题的生成方法、装置、电子设备及可读存储介质,该方法包括:获取目标视频的视频简介、台词文本和弹幕合集;将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。本发明实施例通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例中提供的一种视频标题的生成方法的流程示意图;
图2为本发明实施例中提供的一种视频标题的生成装置的结构示意图;
图3为本发明实施例中电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获取的所有其他实施例,都属于本申请保护的范围。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
此外,术语“第一”、“第二”等可在本文中用于描述各种方向、动作、步骤或元件等,但这些方向、动作、步骤或元件不受这些术语限制。这些术语仅用于将第一个方向、动作、步骤或元件与另一个方向、动作、步骤或元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一速度差值为第二速度差值,且类似地,可将第二速度差值称为第一速度差值。第一速度差值和第二速度差值两者都是速度差值,但其不是同一速度差值。术语“第一”、“第二”等而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
本申请实施例提供了一种视频标题的生成方法,如图1所示,该方法的步骤包括:
步骤101、获取目标视频的视频简介、台词文本和弹幕合集。
在本实施例中,目标视频可以为长视频、短视频或剪辑等等,在本实施例中以短视频为例进行说明。具体地,目标视频为短视频时,一般是通过对长视频进行剪切得到的,一般的长视频均会有影评人或者观众撰写的视频简介,该视频简介大致反映了长视频中的剧情内容,示例性的,剧情简介可以为“朱怡贞看到了报纸,得知纪中原死的消息,她非常的震惊也非常的难过。”台词文本为目标视频中的台词集合,即将目标视频中所有角色的台词进行整合的集合。需要进行说明的是,在短视频中,旁白或者注释等也包括在台词集合中。目标视频中存在了至少一个弹幕,由至少一个弹幕组成了目标视频的台词文本。具体地,弹幕是指指的是在网络上观看视频时弹出的评论性字幕,其弹幕内容一般与目标视频中的相关,示例性的,弹幕可以为“太精彩了”、“太刺激了”等等。
步骤102、将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容。
在本实施例中,第一深度学习模型为预先训练好的深度学习模型,示例性的,第一深度学习模型可以为特征提取模型等,在将视频简介和台词文本输入到深度学习模型中后,输出该短视频的剧情简介,即特征信息。具体地,即在长视频的视频简介中与短视频相关的关键内容。需要进行说明的是,一般长视频的剧情简介包括整个剧情故事,而短视频中一般仅仅为部分剧情,因此无法与整个长视频的剧情简介相匹配,需要对长视频的剧情简介进行精简,获得与短视频相匹配的内容,即本实施例中的特征信息。
步骤103、在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
在本实施例中,对弹幕合集中的弹幕依靠目标评分参数进行评分,其中,目标评分参数可以包括:弹幕质量、交互数据和内容相关度等等。目标弹幕为弹幕合集中评分达到预期评分的弹幕,据此,将目标弹幕和特征信息结合输入到预训练的第二深度学习模型,输出与目标视频匹配的视频标题。需要进行说明的,第二深度学习模型为预先训练好的深度学习模型,示例性的,深度学习模型可以为语言模型等。通过将剧情简介与弹幕进行结合,生成视频标题,使得编辑不需要看视频就可以了解剧情梗概,提高了视频的分发效率和标题的相关性。
本发明实施例提供了一种视频标题的生成方法,该方法包括:获取目标视频的视频简介、台词文本和弹幕合集;将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。本发明实施例通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
可选的,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:
获取目标视频的初始台词文本和初始弹幕合集;
根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
在本实施例中,首先获取目标视频的初始台词文本和初始弹幕合集,其中,初始台词文本和初始弹幕合集为直接从目标视频中识别获取,因此可能存在语法错误或者通顺度问题等等情况,需要进行校正。其次,通过初始台词文本在网络中搜索与目标视频相关联的初始视频简介,需要进行说明的是,一般地会选择与评价最好或者质量最高的视频简介作为初始视频简介。其中,可以通过初始台词文本中的关键词在网络中进行搜索,优先出现的视频简介即可确定为初始视频简介。另外,还可以根据初始台词文本与多个视频简介之间通过相关度确定,具体地,将初始台词文本与多个视频简介进行关联度评分,将评分最高的视频简介确定为初始视频简介。
在获取到述初始台词文本、初始弹幕合集和初始视频简介后进行数据清理和数据修正,从而去除重复内容和由于识别错误导致的不通顺的内容,以保证后续生成的视频标题不会出现语法错误或内容重复等问题。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:
获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第一训练样本对所述剧情简介定位模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
将训练好的剧情简介定位模型确定为所述第一深度学习模型。
在本实施例中,第一深度学习模型为训练好的深度学习模型,剧情简介定位模型用于输入视频简介和台词时,输出精简的视频简介,具体地,在输入长视频的视频简介后,输出对应短视频的视频简介,其中,短视频的视频简介内容比长视频的视频简介内容少。
第一样本中包括大量的视频简介样本和台词样本,通过使用第一训练样本对创建好的剧情简介定位模型进行训练,使得第一深度学习模型能够更好地通过台词匹配短视频的视频简介。
在具体实施方式中,剧情简介定位模型包括两个模块:Fusion Encoder(融合编码器)和Sentences Encoder(句型编码器)。其中,Fusion Encoder通过800万匹配数据进行预训练,并且在剧情简介训练集上进行训练(Description-Classifier名称分类器、Sentence-Classifier句型分类器)。Sentences Encoder在训练时,冻结Fusion Encoder中的参数并提取所有Sentence(句型)特征,进行多任务训练。在预测阶段,首先通过Classifier(分类器)预测剧情简介和台词是否匹配,若匹配则将匹配到的剧情简介的起止点和终止点区间内对应的Sentence作为输出;若不匹配则输出空。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
将所述目标视频简介确定为所述目标视频的特征信息。
在本实施例中,对第一深度学习模型进行具体说明,第一深度学习模型通过台词文本确定视频简介中与短视频内容相关的内容,并根据该部分内容确定起始点和终点。示例性的,例如长视频的视频简介包括10段内容,而根据台词文本匹配之后,发现短视频涉及其中的4段内容,因此根据4段内容对10段内容进行切分,确定起始点和终点,该起始点和终点分别为4段内容的开头和结尾,由此即可准确获得短视频的视频简介,即目标视频简介,该目标视频简介为目标视频的特征信息。在另一种实施方式中,起始点和终点还可以为时间点进行划分,例如通过起始点和终点的时间点来确定视频简介中的对应内容。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
在本实施例中,在本实施例中,通过预设弹幕质量、预设交互数据和预设内容相关度依次对弹幕进行评分,只有在符合前一个评分标准的情况下才能进行后续的评分。
首先通过预设弹幕质量对至少一个弹幕进行评分,其中,弹幕质量用于指示所述弹幕的通顺程度和字数,具体地,弹幕质量反映了弹幕是否符合语法、是否过于简短、是否通顺等等方面。在评分之后,将符合预设弹幕质量的弹幕归为第一弹幕集合,其余弹幕排除掉。示例性的,弹幕越短越通顺的评分也会更高,例如“6极了”的评分比“表现太好了”的评分更好,需要进行说明的是,弹幕的内容如果包含最近的互联网新梗,也会取得更高的评分,因为互联网新梗能够受到到多数青年的喜爱,提高了标题的趣味。
其次通过预设交互数据对第一弹幕集合中的弹幕进行评分,其中,交互数据用于指示所述弹幕的点赞数,具体地,交互数据指示了弹幕的热度和赞同度,例如某个弹幕出现次数很多而且该弹幕受到了大量点赞,即表明该弹幕认同度较高,容易吸引用户。在评分之后,将符合预设交互数据的弹幕归为第二弹幕集合,其余弹幕排除掉。示例性的,当弹幕中包含趣味用语或者互联网新梗时,弹幕会收到更多的用户点赞,从而弹幕的评分也更高,例如,“你上比国足强”等弹幕,能够受到大部分人的点赞,从而交互数据较高。
最后通过预设内容相关度对第二弹幕集合中的弹幕进行评分从而获得目标弹幕,其中,通过对弹幕中包含的内容依靠内容相关度进行判断,内容相关度指示所述弹幕与所述目标视频中台词的相关度,具体地,台词与弹幕之间重合度反映了内容相关度,当相关度越高时,表明此弹幕更加贴合视频内容,生成的标题也会更加符合要求。示例性的,当弹幕中包含了更多的内容时,弹幕的评分也越高,例如弹幕中包含了视频内容的人物、动作和事件等等。
可选的,所述在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
获取创建的标题生成模型,所述标题生成模型用于对输入的文本内容进行整合输出视频标题;
通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述标题生成模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
将训练好的标题生成模型确定为所述第二深度学习模型。
在本实施例中,第二深度学习模型为训练好的深度学习模型,标题生成模型用于输入视频简介和弹幕时,输出视频标题,具体地,在视频简介和弹幕后,可输出与目标视频匹配的视频标题。通过将上述获取到的目标弹幕和视频简介输入到预训练的深度学习模型中,获得目标视频的视频标题,该视频标题通过与弹幕和视频简介关联,弹幕是用户对于视频内容的理解,具有较强的风格性和评论性,更好地提高了视频标题与视频内容之间的关联性。
第二样本中包括大量的视频简介样本和弹幕样本,通过使用第二训练样本对创建好的剧情简介定位模型进行训练,使得第二深度学习模型能够更好地通过台词匹配短视频的视频简介。
需要进行说明的是,标题生成模型是传统的seq2seq结构,encoder(编码器)是transformer-encoder(转换编码器),decoder(解码器)是transformer-decoder(转换解码器)。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题,包括:
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行结合,生成目标文本;
将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
在本实施例中,在本实施例中,特征信息为目标视频中的视频简介。具体地,对所有的目标弹幕通过弹幕质量、交互数据和内容相关度三个方面进行评分,示例性的,设定预期评分为90,在目标弹幕超过或等于90分时被选择与台词文本进行结合,生成目标文本。需要进行说明的是,目标文本中视频简介和目标弹幕为同时输入,并没有将内容进行融合或者修改,仅仅是将两个文本进行结合而已。由于视频简介和弹幕都有一部分描述当前剧情的信息,通过将弹幕和视频简介进行结合生成标题可以提高标题的吸引力与视频的相关度。
本发明实施例提供了一种视频标题的生成方法,该方法包括:获取目标视频的视频简介、台词文本和弹幕合集;将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。本发明实施例通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
本发明实施例还提供了一种视频标题的生成装置200,如图2所示,该标题的生成装置200包括:
获取模块210,用于获取目标视频的视频简介、台词文本和弹幕合集;
提取模块220,用于将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
输入模块230,用于在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
可选的,获取模块210还包括:
获取子模块,用于获取目标视频的初始台词文本和初始弹幕合集;
匹配子模块,用于根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
整合子模块,用于对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
可选的,还包括:
第一模型创建模块,用于获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
第一模型训练模块,用于通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述剧情简介定位模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
第一模型确定模块,用于将训练好的剧情简介定位模型确定为所述第一深度学习模型。
可选的,包括:
特征获取子模块,用于将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
特征提取子模块,用于根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
特征确定子模块,用于将所述目标视频简介确定为所述目标视频的特征信息。
可选的,还包括:
第一弹幕评分模块,用于根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
第二弹幕评分模块,用于根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
第三弹幕评分模块,用于根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
可选的,还包括:
第二模型创建模块,用于获取创建的标题生成模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
第二模型训练模块,用于通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
第二模型确定模块,用于将训练好的标题生成模型确定为所述第二深度学习模型。
可选的,输入模块230还包括:
结合子模块,用于在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行文本整合,生成目标文本;
输入子模块,用于将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
本申请通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
图3为本发明实施例提供的一种电子设备的结构示意图,如图3所示,该电子设备300包括存储器310、处理器320,电子设备300中处理器320的数量可以是一个或多个,图3中以一个处理器320为例;服务器中的存储器310、处理器320可以通过总线或其他方式连接,图3中以通过总线连接为例。
存储器310作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的标题的生成方法对应的程序指令/模块,处理器320通过运行存储在存储器310中的软件程序、指令以及模块,从而执行服务器/终端/服务器的各种功能应用以及数据处理,即实现上述的视频标题的生成方法。
其中,处理器320用于运行存储在存储器310中的计算机程序,实现如下步骤:
获取目标视频的视频简介、台词文本和弹幕合集;
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
可选的,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:
获取目标视频的初始台词文本和初始弹幕合集;
根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:
获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述语言学习模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
将训练好的剧情简介定位模型确定为所述第一深度学习模型。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
将所述目标视频简介确定为所述目标视频的特征信息。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
可选的,所述在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
获取创建的标题生成模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
将训练好的标题生成模型确定为所述第二深度学习模型。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题,包括:
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行文本整合,生成目标文本;
将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
本申请通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
在其中一个实施例中,本发明实施例所提供的一种电子设备,其计算机程序不限于如上的方法操作,还可以执行本发明任意实施例所提供的视频标题的生成方法中的相关操作。
存储器410可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器410可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器410可进一步包括相对于处理器420远程设置的存储器,这些远程存储器可以通过网络连接至服务器/终端/服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种视频标题的生成方法,该方法包括:
获取目标视频的视频简介、台词文本和弹幕合集;
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
可选的,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:
获取目标视频的初始台词文本和初始弹幕合集;
根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:
获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述语言学习模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
将训练好的剧情简介定位模型确定为所述第一深度学习模型。
可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
将所述目标视频简介确定为所述目标视频的特征信息。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
可选的,所述在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
获取创建的标题生成模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
将训练好的标题生成模型确定为所述第二深度学习模型。
可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题,包括:
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行文本整合,生成目标文本;
将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的一种标题的生成方法中的相关操作。
本申请通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
存储介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种视频标题的生成方法,其特征在于,包括:
获取目标视频的视频简介、台词文本和弹幕合集;
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
2.根据权利要求1中所述的方法,其特征在于,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:
获取目标视频的初始台词文本和初始弹幕合集;
根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
3.根据权利要求1中所述的方法,其特征在于,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:
获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述剧情简介定位模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
将训练好的剧情简介定位模型确定为所述第一深度学习模型。
4.根据权利要求3中所述的方法,其特征在于,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:
将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
将所述目标视频简介确定为所述目标视频的特征信息。
5.根据权利要求1中所述的方法,其特征在于,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
6.根据权利要求1中所述的方法,其特征在于,所述在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
获取创建的标题生成模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
将训练好的标题生成模型确定为所述第二深度学习模型。
7.根据权利要求1中所述的方法,其特征在于,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题,包括:
在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行文本整合,生成目标文本;
将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
8.一种视频标题的生成装置,其特征在于,包括:
获取模块,用于获取目标视频的视频简介、台词文本和弹幕合集;
提取模块,用于将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
输入模块,用于在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
9.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至7中任一项所述的视频标题的生成方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述可读存储介质上存储有程序或指令,所述程序或指令被处理器执行时实现如权利要求1至7中任一项所述的视频标题的生成方法的步骤。
CN202211609550.4A 2022-12-14 2022-12-14 视频标题的生成方法、装置、电子设备及可读存储介质 Active CN116156271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211609550.4A CN116156271B (zh) 2022-12-14 2022-12-14 视频标题的生成方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211609550.4A CN116156271B (zh) 2022-12-14 2022-12-14 视频标题的生成方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN116156271A true CN116156271A (zh) 2023-05-23
CN116156271B CN116156271B (zh) 2024-06-21

Family

ID=86353469

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211609550.4A Active CN116156271B (zh) 2022-12-14 2022-12-14 视频标题的生成方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN116156271B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326371A (zh) * 2016-08-12 2017-01-11 北京奇艺世纪科技有限公司 服务推送方法及装置
CN106845390A (zh) * 2017-01-18 2017-06-13 腾讯科技(深圳)有限公司 视频标题生成方法及装置
WO2017133172A1 (zh) * 2016-02-01 2017-08-10 百度在线网络技术(北京)有限公司 一种信息推送方法和装置
CN107463552A (zh) * 2017-07-20 2017-12-12 北京奇艺世纪科技有限公司 一种生成视频主题名称的方法和装置
CN109660865A (zh) * 2018-12-17 2019-04-19 杭州柚子街信息科技有限公司 为视频自动打视频标签的方法及装置、介质和电子设备
CN110213668A (zh) * 2019-04-29 2019-09-06 北京三快在线科技有限公司 视频标题的生成方法、装置、电子设备和存储介质
CN110263214A (zh) * 2019-06-21 2019-09-20 北京百度网讯科技有限公司 视频标题的生成方法、装置、服务器及存储介质
CN110297933A (zh) * 2019-07-01 2019-10-01 山东浪潮人工智能研究院有限公司 一种基于深度学习的主题标签推荐方法及工具
KR20190125029A (ko) * 2018-04-27 2019-11-06 성균관대학교산학협력단 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치
WO2019242222A1 (zh) * 2018-06-21 2019-12-26 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN112104919A (zh) * 2020-09-11 2020-12-18 腾讯科技(深圳)有限公司 基于神经网络的内容标题生成方法、装置、设备、和计算机可读存储介质
CN113177138A (zh) * 2021-04-30 2021-07-27 南开大学 一种基于弹幕和标题分析的有监督视频分类方法
CN114357989A (zh) * 2022-01-10 2022-04-15 北京百度网讯科技有限公司 视频标题生成方法、装置、电子设备及存储介质
CN114860992A (zh) * 2022-04-21 2022-08-05 北京奇艺世纪科技有限公司 视频的标题生成方法、装置、设备及存储介质
US20220284071A1 (en) * 2020-03-04 2022-09-08 Karl Louis Denninghoff Transitory salient attention capture to draw attention to digital document parts

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017133172A1 (zh) * 2016-02-01 2017-08-10 百度在线网络技术(北京)有限公司 一种信息推送方法和装置
CN106326371A (zh) * 2016-08-12 2017-01-11 北京奇艺世纪科技有限公司 服务推送方法及装置
CN106845390A (zh) * 2017-01-18 2017-06-13 腾讯科技(深圳)有限公司 视频标题生成方法及装置
CN107463552A (zh) * 2017-07-20 2017-12-12 北京奇艺世纪科技有限公司 一种生成视频主题名称的方法和装置
KR20190125029A (ko) * 2018-04-27 2019-11-06 성균관대학교산학협력단 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치
WO2019242222A1 (zh) * 2018-06-21 2019-12-26 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109660865A (zh) * 2018-12-17 2019-04-19 杭州柚子街信息科技有限公司 为视频自动打视频标签的方法及装置、介质和电子设备
CN110213668A (zh) * 2019-04-29 2019-09-06 北京三快在线科技有限公司 视频标题的生成方法、装置、电子设备和存储介质
CN110263214A (zh) * 2019-06-21 2019-09-20 北京百度网讯科技有限公司 视频标题的生成方法、装置、服务器及存储介质
CN110297933A (zh) * 2019-07-01 2019-10-01 山东浪潮人工智能研究院有限公司 一种基于深度学习的主题标签推荐方法及工具
US20220284071A1 (en) * 2020-03-04 2022-09-08 Karl Louis Denninghoff Transitory salient attention capture to draw attention to digital document parts
CN112104919A (zh) * 2020-09-11 2020-12-18 腾讯科技(深圳)有限公司 基于神经网络的内容标题生成方法、装置、设备、和计算机可读存储介质
CN113177138A (zh) * 2021-04-30 2021-07-27 南开大学 一种基于弹幕和标题分析的有监督视频分类方法
CN114357989A (zh) * 2022-01-10 2022-04-15 北京百度网讯科技有限公司 视频标题生成方法、装置、电子设备及存储介质
CN114860992A (zh) * 2022-04-21 2022-08-05 北京奇艺世纪科技有限公司 视频的标题生成方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
左丽娟;: "访谈类短视频标题自动生成方案的研究", 计算机产品与流通, no. 11, 15 November 2017 (2017-11-15) *

Also Published As

Publication number Publication date
CN116156271B (zh) 2024-06-21

Similar Documents

Publication Publication Date Title
WO2019228267A1 (zh) 短视频的合成方法、装置、设备及存储介质
CN107578769B (zh) 语音数据标注方法和装置
CN109754783B (zh) 用于确定音频语句的边界的方法和装置
CN113486833B (zh) 多模态特征提取模型训练方法、装置、电子设备
CN110008378B (zh) 基于人工智能的语料收集方法、装置、设备及存储介质
CN110795532A (zh) 一种语音信息的处理方法、装置、智能终端以及存储介质
CN101382937A (zh) 基于语音识别的多媒体资源处理方法及其在线教学系统
CN103761261A (zh) 一种基于语音识别的媒体搜索方法及装置
CN111182347A (zh) 视频片段剪切方法、装置、计算机设备和存储介质
CN111178081B (zh) 语义识别的方法、服务器、电子设备及计算机存储介质
CN112738557A (zh) 视频处理方法及装置
US20240147023A1 (en) Video generation method and apparatus, and device, medium and product
JP2012181358A (ja) テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム
CN110121033A (zh) 视频编目方法及装置
CN113392273A (zh) 视频播放方法、装置、计算机设备及存储介质
CN114254158A (zh) 视频生成方法及其装置、神经网络的训练方法及其装置
CN108364655B (zh) 语音处理方法、介质、装置和计算设备
CN114639386A (zh) 文本纠错及文本纠错词库构建方法
CN113411674A (zh) 视频的播放控制方法、装置、电子设备及存储介质
CN115115984A (zh) 视频数据处理方法、装置、程序产品、计算机设备和介质
CN114286169A (zh) 视频生成方法、装置、终端、服务器及存储介质
CN108600775B (zh) 直播视频的监控方法、装置、服务器和存储介质
CN116166827A (zh) 语义标签抽取模型的训练和语义标签的抽取方法及其装置
CN114860992A (zh) 视频的标题生成方法、装置、设备及存储介质
CN116156271B (zh) 视频标题的生成方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant