CN108933970B - 视频的生成方法和装置 - Google Patents

视频的生成方法和装置 Download PDF

Info

Publication number
CN108933970B
CN108933970B CN201710392611.9A CN201710392611A CN108933970B CN 108933970 B CN108933970 B CN 108933970B CN 201710392611 A CN201710392611 A CN 201710392611A CN 108933970 B CN108933970 B CN 108933970B
Authority
CN
China
Prior art keywords
story
video
target
outline
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710392611.9A
Other languages
English (en)
Other versions
CN108933970A (zh
Inventor
才东
李明修
商磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN201710392611.9A priority Critical patent/CN108933970B/zh
Publication of CN108933970A publication Critical patent/CN108933970A/zh
Application granted granted Critical
Publication of CN108933970B publication Critical patent/CN108933970B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/03Data mining

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例提供了一种视频的生成方法和装置,其中的方法具体包括:获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;确定所述故事大纲中各角色标签对应的目标演员;依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。本发明实施例可以可以针对目标文本自动生成对应的视频,且可以有效降低视频的生成成本。

Description

视频的生成方法和装置
技术领域
本发明涉及视频技术领域,特别是涉及一种视频的生成方法和装置。
背景技术
视频是对客观事物形象、生动的描述,是直观而具体的信息表达形式,近年来视频在民众的生活中得到了广泛的应用。并且,为了满足民众的娱乐需求,出现了越来越多的视频作品,如电影(微电影)、电视剧、动画等。
传统的视频生成方案通常包括:前期准备环节、现场拍摄环节和后期制作环节,其中,前期准备环节用于准备影视作品的影视剧本;现场拍摄环节用于依据该影视剧本通过摄制组演职人员进行影视作品的拍摄,以得到拍摄素材;后期制作环节通过影视非线性编辑系统对该拍摄素材进行编辑处理,并为编辑处理后的视频添加特效、配音配乐,最终得到影视作品的成品。
然而,在实际应用中,上述现场拍摄环节和后期制作环节均需要耗费较多的人力、物力和财力成本,尤其地,上述现场拍摄环节用到的场地、演员、拍摄器材和拍摄服装等需要耗费一定的人力、物力和财力成本;因此,传统方案中视频的生成成本较高。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的视频的生成方法、及视频的生成装置,本发明实施例可以针对目标文本自动生成对应的视频,且可以有效降低视频的生成成本。
为了解决上述问题,本发明公开了一种视频的生成方法,包括:
获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;
确定所述故事大纲中各角色标签对应的目标演员;
依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;
依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
可选地,所述获取目标文本对应的故事大纲,包括:
确定目标文本对应的目标主题;
利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;
依据目标文本对应故事所包括事件的标签,生成故事大纲。
可选地,所述挖掘模型包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;
其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;
所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;
所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
可选地,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
可选地,所述确定所述故事大纲中各角色标签对应的目标演员,包括:
依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。
可选地,所述方法还包括:
依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;
建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
可选地,所述方法还包括:
基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;
确定所述视频片段对应的视频标签;所述视频标签包括:演员标签;
依据所述视频片段及其对应的视频标签,建立视频片段数据库。
可选地,所述确定所述视频片段对应的视频标签,包括:
对所述视频片段中人脸的表情和/或场景进行识别;
根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
可选地,所述事件的标签还包括:情感标签,所述方法还包括:
依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;
为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
另一方面,本发明公开了一种视频的生成装置,包括:
故事大纲获取模块,用于获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;
目标演员确定模块,用于确定所述故事大纲中各角色标签对应的目标演员;
目标视频片段获取模块,用于依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;以及
目标视频片段拼接模块,用于依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
可选地,所述故事大纲获取模块包括:主题确定子模块、标签挖掘子模块和故事大纲生成模块;
其中,所述主题确定子模块,用于确定目标文本对应的目标主题;
所述标签挖掘子模块,用于利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;
所述故事大纲生成模块,用于依据目标文本对应故事所包括事件的标签,生成故事大纲。
可选地,所述挖掘模型包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;
其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;
所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;
所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
可选地,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
可选地,所述目标演员确定模块包括:
演员查找子模块,用于依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。
可选地,所述装置还包括:
演员属性确定模块,用于依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;
映射表建立模块,用于建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
可选地,所述装置还包括:
视频片段截取模块,用于基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;
视频标签确定模块,用于确定所述视频片段对应的视频标签;所述视频标签包括:演员标签;
视频片段数据库确定模块,用于依据所述视频片段及其对应的视频标签,建立视频片段数据库。
可选地,所述视频标签确定模块包括:识别子模块和确定子模块;
其中,所述识别子模块,用于对所述视频片段中人脸的表情和/或场景进行识别;
所述确定子模块,用于根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
可选地,所述事件的标签还包括:情感标签,所述装置还包括:
背景音乐获取模块,用于依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;
背景音乐添加模块,用于为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
再一方面,本发明公开了一种视频的生成的装置,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;确定所述故事大纲中各角色标签对应的目标演员;依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
又一方面,本发明公开了一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行前述的视频的生成方法。
本发明实施例包括以下优点:
本发明实施例将故事大纲和故事大纲中角色标签对应的目标演员作为获取目标视频片段的媒介,这样可以针对目标文本自动生成对应的视频,因此可以节省传统方案中现场拍摄环节和后期制作环节耗费的人力、物力和财力成本,有效降低视频的生成成本。
附图说明
图1是本发明的一种视频的生成方法实施例的步骤流程图;
图2是本发明的一种视频的生成装置实施例的结构框图;
图3是本发明的一种视频的生成的装置900作为终端时的结构框图;及
图4是本发明的一些实施例中服务器的结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例提供了一种视频的生成方案,该方案可以首先获取目标文本对应的故事大纲;该故事大纲可以为带有时间轴的事件流,该时间轴上各时间段对应事件的标签可以包括:角色标签;然后确定该故事大纲中各角色标签对应的目标演员;接着依据该故事大纲及该目标演员,从视频片段数据库中获取该故事大纲中各时间段对应的目标视频片段;进而依据该故事大纲对应的时间轴,对上述目标视频片段进行拼接,以得到该故事大纲对应的视频。
本发明实施例中视频生成的流程可以包括:目标文本→故事大纲→目标演员→目标视频片段→视频,其中,目标文本可以为生成视频所需的文本,故事大纲可以反映目标文本对应故事的事件发展,本发明实施例将故事大纲和故事大纲中各角色标签对应的目标演员作为获取目标视频片段的媒介,这样可以针对目标文本自动生成对应的视频,因此可以节省传统方案中现场拍摄环节和后期制作环节耗费的人力、物力和财力成本,有效降低视频的生成成本。
本发明实施例提供的视频的生成方案可以针对任意来源的目标文本生成对应的视频,且本发明实施例提供的视频的生成方案可以应用于任意的应用环境中,例如,该应用环境可以包括:网站和/或APP(应用程序,Application)对应的在线服务环境、或者离线分析环境等,可以理解,本发明实施例对于具体的应用环境不加以限制。
方法实施例
参照图1,示出了本发明的一种视频的生成方法实施例的步骤流程图,具体可以包括如下步骤:
步骤101、获取目标文本对应的故事大纲;该故事大纲可以为带有时间轴的事件流,该时间轴上各时间段对应事件的标签可以包括:角色标签;
步骤102、确定所述故事大纲中各角色标签对应的目标演员;
步骤103、依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;
步骤104、依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
在实际应用中,可以从目标文本对应的文档或网页中获取目标文本。例如,可以依据目标文本对应文档的存储路径获取目标文本对应的文档,并从目标文本对应的文档中读取目标文本;又如,可以依据目标文本对应网页的URL(统一资源定位符,Uniform ResourceLocator)获取目标文本对应的网页,并从目标文本对应的网页中读取目标文本。当然,从目标文本对应的文档或网页中获取目标文本只是作为目标文本的获取方式的示例,实际上,本领域技术人员可以根据实际应用需求采用目标文本的其他获取方式,例如,通过文本编辑接口接收用户输入的目标文本等。
本发明实施例中,该故事大纲可以为带有时间轴的事件流,其可以反映目标文本对应故事的事件发展。其中,事件可以与故事总概或者故事情节或者镜头相关,故事总概可以为故事的总体概要,故事情节为故事所包括事件的安排或者叙述,一般是指故事表现手法,它可以是一种叙事方式,也可以是一些特定的场景,它还可以与故事类型联用;镜头是指一次开机到停机之间所拍摄的连续画面,画面是指不间断的通过摄影机拍摄下来的静止或运动的对象。
参照表1,示出了本发明实施例的一种故事大纲的示意,其具体可以包括:时间段、事件标识和标签之间的映射关系,表1中的故事大纲可以包括n(n为自然数)个时间段和事件。其中,时间段与事件之间可以为一对一的关系,时间段可以为粗略的时间段或者精确的时间段,也即,该时间段对应的起始时间、结束时间或者时间段长度可以为粗略值或者精确值,本发明实施例通过时间轴确定事件的顺序,而对于事件对应的具体时间段不加以限制。标签可以为事件对应的标签,事件与标签之间可以为一对一的关系、或者一对多的关系,可以理解,本发明实施例对于时间段和事件的具体数量不加以限制。
表1
Figure GDA0003362138740000081
在本发明的一种可选实施例中,标签可以包括:角色标签和内容标签,其中内容标签可以为除了角色标签之外的其他标签。角色标签可以反映对于角色的要求或者角色性格等,例如,上述角色标签可以包括:用于表征角色在某事件中应该表演怎样的表情标签,又如上述角色标签可以包括:角色应具备的气质等,角色标签可以作为演员选取的依据。内容标签的例子可以包括:故事总概标签、故事情节标签、镜头标签、情感标签、时代背景标签、场景标签、导演标签、镜头风格标签、背景音乐标签、服化道标签、关键对白标签等。
其中,故事情节标签和镜头标签分别为故事情节和镜头对应的标签;情感标签可用于表示事件所表现的情感,该情感标签可以作为故事情节标签和镜头标签的一部分,也可以独立存在。时代背景标签是故事进程所处的时空,范围可以大到涵盖整个宇宙,也可以小到只涵盖某个行当,时代背景可以决定故事中世界的规则;例如《哈利波特》,就是西方魔法世界的背景,在实际应用中,时代背景标签可以包括:古代、民国、现代等,其中,古代可以包括:具体的朝代或者架空古代等,现代还可以包括:80年代、90年代等具体的年代。场景标签可用于表示事件所处的场景,如自然场景(如海边、山脉等)、城市场景(如街道、室内等)。导演标签可用于表示擅长目标文本对应的故事的导演、或者目标文本对应的故事对于导演的要求等。镜头风格标签可以为预设的镜头风格,例如电影《南京,南京》的镜头风格包括:“纪实故事”等,本发明实施例对于预设的镜头风格不加以限制。背景音乐标签可用于反映事件对应的背景音乐,例如背景音乐标签可以包括:“悲伤凄凉”、“欢快”等。服化道标签可用于标识事件对应的服装、化妆和道具等信息。
需要说明的是,该故事大纲中可以包括一个或多个事件,其中,一些事件的标签可以包括:角色标签,此种情况的事件可以为人物事件。可选地,另一些事件的标签可以不包括角色标签,此种情况的事件可以为景物事件,景物事件可以作为人物事件的辅助。
在实际应用中,目标文本中可以携带有故事相关的信息,例如,故事相关的信息可以包括:故事的主题、故事总概、故事情节、角色介绍、关键对白等信息。可以理解,用户可以根据实际应用需求,在目标文本中携带故事相关的任意信息,例如,还可以在目标文本中携带分集剧情等信息,甚至目标文本还可以为剧本。
在本发明的一种可选实施例中,上述步骤101获取目标文本对应的故事大纲的过程可以包括:从目标文本中抽取目标文本对应故事所包括事件的标签;依据目标文本对应故事所包括事件的标签,生成目标文本对应的故事大纲。具体地,从目标文本中抽取事件的标签可以包括:从目标文本中抽取角色标签。可选地,从目标文本中抽取事件的标签还可以包括:从目标文本中抽取关键的故事情节,作为事件的故事情节标签。以《西游记》对应的目标文本为例,可以从中提取关键的故事情节“收徒”、“过程”、“成果”等,作为事件的故事情节标签,并且,还可以从中提取各角色的角色标签,如“孙悟空”的角色标签可以包括:“机智、好动、活泼、勇敢、疾恶如仇、是非分明、惩奸除恶”等。
在本发明的另一种可选实施例中,上述步骤101获取目标文本对应的故事大纲的过程可以包括:确定目标文本对应的目标主题;利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;依据目标文本对应故事所包括事件的标签,生成故事大纲;其中,所述挖掘模型可以为依据所述目标主题对应的故事语料训练得到。
对于故事而言,主题是故事中内容的核心与内涵,是故事所要表现的主题思想。具体到本发明实施例,目标主题可以为目标文本对应故事的主题,可选地,该目标主题的信息可以包括:时代背景、类型、思想等信息。例如,《西游记》对应的时代背景和类型分别为“唐代”和“神魔”,《潜伏》对应的时代背景和类型分别为“民国”和“民国谍战”等,目标主题的例子还可以包括:“仙侠”、“盗墓”等。
在实际应用中,可以从目标文本中抽取对应的目标主题,或者,可以利用LDA(线性判别分析,Linear Discriminant Analysis)模型,对目标文本进行主题分类,以得到目标文本对应的目标主题;可以理解,本发明实施例对于目标文本对应的目标主题的具体确定方式不加以限制。
本发明实施例中,依据目标文本对应的目标主题,可以确定需要生成的视频的视频片段来源、演员选取、表演表情、镜头特征、色调光影、服化道、音乐(如主题音乐)等方面的信息。例如,可以依据目标文本对应的目标主题包括的时代背景信息,确定对应的服化道标签。
本发明实施例利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签,其中,上述挖掘模型可以为依据所述目标主题对应的故事语料训练得到。上述目标主题对应的故事语料可以为与目标主题相同或者相似的主题对应的故事语料,故事语料可以为剧本、小说、分集剧情、视频脚本等与故事相关的语料;并且,上述故事语料可以包括故事对应的视频信息;例如,视频脚本可以包括故事对应的分镜信息。这样,可以参照与目标主题相同或者相似的主题对应的故事语料的视频信息,对目标文本对应故事所包括事件的标签进行挖掘。其中,挖掘结果可以为目标文本对应的故事情节、目标文本对应故事情节的分镜处理结果、目标文本对应的故事走向等。
在本发明的一种可选实施例中,所述挖掘模型可以包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种。即为,所述挖掘模型可以包括:角色挖掘模型和镜头挖掘模型;或者,挖掘模型可以包括:角色挖掘模型和情节挖掘模型;或者,挖掘模型可以包括:角色挖掘模型、镜头挖掘模型和情节挖掘模型;等等。
其中,可以对预置主题对应的故事语料中故事情节进行分镜学习,以得到所述镜头挖掘模型。可选地,可以采用深度学习方法进行预置主题对应的故事语料中故事情节的分镜学习,上述分镜学习可以通过组合故事语料中故事情节的低层分镜处理特征形成更加抽象的高层表示属性类别或特征,这样,可以使训练得到的镜头挖掘模型具备故事情节的分镜处理能力。
相应地,上述利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签的过程可以包括:利用所述目标主题对应的镜头挖掘模型挖掘得到目标文本对应故事所包括故事情节的镜头标签。例如,镜头挖掘模型通过对于主题与《西游记》的目标主题“神魔”相同或者类似的《西游记》(之前拍摄的影视作品)、《桃太郎》等故事语料中故事情节的学习,学习“收徒”、“过程”、“成果”等故事情节的分镜处理能力,这样,可以利用镜头挖掘模型对《西游记》对应的“收徒”、“过程”、“成果”等故事情节等进行分镜处理,以得到对应的镜头标签。
可以对预置主题对应的故事语料进行角色挖掘学习,以得到所述角色挖掘模型。可选地,可以采用深度学习方法进行预置主题对应的故事语料的角色挖掘学习,上述角色挖掘学习可以通过组合故事语料的低层角色挖掘特征形成更加抽象的高层表示属性类别或特征,这样,可以使训练得到的角色挖掘模型具备故事的角色挖掘能力。
相应地,上述利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签的过程可以包括:利用所述目标主题对应的角色挖掘模型挖掘得到目标文本对应故事的角色标签。例如,角色挖掘模型通过对于主题与《潜伏》的目标主题“民国谍战”相同或者类似的《暗算》、《黎明之前》等故事语料中故事情节的学习,学习对应的角色挖掘能力,这样,可以利用镜头挖掘模型挖掘得到《潜伏》对应的角色标签,如“男一:间谍,有血性,意志坚定,不屈不挠…”、“女一,文艺女青年,地下党…”、“女二:女演员,官家小姐,女刺客,倔强…”、“女三:傻白甜,小妹妹,纯情不经世事…”等。
可以对预置主题对应的故事语料进行情节挖掘学习,以得到所述情节挖掘模型。可选地,可以采用深度学习方法进行预置主题对应的故事语料的情节挖掘学习,上述情节挖掘学习可以通过组合故事语料的低层情节挖掘特征形成更加抽象的高层表示属性类别或特征,这样,可以使训练得到的情节挖掘模型具备故事的情节挖掘能力。
在本发明的一种可选实施例中,所述情节挖掘模型可以依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。其中,热度特征和/或评价特征可以分别反映用户对于故事情节的关注度和评价度,可选地,可以通过影视作品的评论网站获取故事情节对应的热度特征和/或评价特征,例如,上述热度特征可以为故事情节的出现次数与故事名称的出现次数的比值,上述评价特征可以包括:好评、差评、中评等。这样,利用所述目标主题对应的情节挖掘模型,可以挖掘得到目标文本对应故事包含的较为热门、和/或口碑较高的故事情节,这样,可以提高视频的质量。例如,可以针对《西游记》挖掘“大闹天宫”、“三打白骨精”等热门的故事情节,又如,可以针对《潜伏》挖掘“无间道”、“为亲友报仇”、“刺杀”等热门的故事情节。
在实际应用中,利用所述目标主题对应的情节挖掘模型挖掘得到的故事情节,可以作为从目标文本中提取的故事总概的细化,也可以作为从目标文本中提取的故事情节的补充,这样可以提高故事情节的丰富度。
可以理解,上述镜头挖掘模型、角色挖掘模型和情节挖掘模型只是作为挖掘模型的可选实施例,实际上,本发明实施例的挖掘模型还可以包括:情感挖掘模型、关键对白挖掘模型、场景挖掘模型、导演挖掘模型、镜头风格挖掘模型、背景音乐挖掘模型、服化道挖掘模型等,因此,本领域技术人员可以根据实际应用需求,利用挖掘模型挖掘得到事件对应的任意标签。
在本发明的一种应用示例中,假设目标文本对应的目标主题为“民国谍战”,则可以通过角色挖掘模型获得如下角色标签:“男一:间谍,有血性,意志坚定,不屈不挠…”、“女一,文艺女青年,地下党…”、“女二:女演员,官家小姐,女刺客,倔强…”、“女三:傻白甜,小妹妹,纯情不经世事…”等;并且,可以通过情节挖掘模型获得如下故事情节标签:“无间道”、“为亲友报仇卧底”、“刺杀”等;并且,可以通过镜头挖掘模型从与“民国谍战”对应的故事语料(如《罗曼蒂克消亡史》、《风声》、《听风者》、《太平轮》)中挖掘热门且口碑较好的具备复古色调的镜头标签。
在实际应用中,上述依据目标文本对应故事所包括事件的标签,生成故事大纲的过程可以包括:依据目标文本对应故事所包括事件的时间段,生成故事大纲。可选地,可以针对故事情节的顺序和目标文本对应视频的总时间长度,确定故事情节对应的时间段长度,进而可以得到故事情节对应的时间段。可选地,可以依据目标文本对应视频的总时间长度,为目标文本对应的故事情节分配对应的时间段长度,也可以利用挖掘模型确定故事情节对应的时间段长度或者故事情节对应的时间段长度在视频的总时间长度中的比例。例如,《西游记》对应视频的总时间长度为T,则其包括的“收徒”、“过程”、“成果”等故事情节对应的时间段长度可以分别为a1*T、a2*T、a3*T…,其中,a1、a2和a3分别表示故事情节对应的时间段长度在视频的总时间长度中的比例。
可选地,可以针对故事情节所包括镜头的时间顺序和故事情节对应的时间段长度,确定故事情节所包括镜头对应的时间段长度,进而可以得到镜头对应的时间段。可选地,可以依据故事情节对应的时间段长度,为故事情节所包括镜头分配对应的时间段长度,也可以利用挖掘模型确定镜头对应的时间段长度或者镜头对应的时间段长度在故事情节对应的时间长度中的比例。可以理解,本发明实施例对于故事情节或者镜头对应的时间段长度的具体确定方式不加以限制。
在步骤101获取目标文本对应的故事大纲之后,步骤102可以确定所述故事大纲中角色标签对应的目标演员;由于角色标签可以反映对于角色的要求或者角色性格等,例如,上述角色标签可以包括:用于表征角色在某事件中应该表演怎样的表情标签,又如上述角色标签可以包括:角色应具备的气质等,故角色标签可以作为演员选取的依据,因此可以依据故事大纲中角色标签实现视频所需演员的选取。
在本发明的一种可选实施例中,所述步骤102确定所述故事大纲中角色标签对应的目标演员的过程可以包括:依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。具体地,可以将所述故事大纲中包括的各角色标签与上述映射关系表中的属性特征进行匹配,若匹配成功,则将属性特征对应的演员作为故事大纲中包括的各角色标签对应的目标演员。例如,角色标签“女一,文艺女青年,地下党…”对应的目标演员可以包括:“周迅”,“女二:女演员,官家小姐,女刺客,倔强…”对应的目标演员可以包括:“章子怡”,“女三:傻白甜,小妹妹,纯情不经世事…”对应的目标演员可以包括:“周冬雨”等。
可选地,上述演员与属性特征之间的映射关系表的建立过程可以包括:依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。在实际应用中,可以收集现有的演员,并针对每个演员获取对应的作品(包括影视作品、话剧作品甚至综艺作品等)和/或评价特征,接着,依据演员对应的作品和/或评价特征,确定所述演员对应的属性特征。
在本发明的一种实施例中,可以从影视数据库、和/或互联网的网页资源中获取演员对应的作品和/或作品评价,其中,演员对应的作品可以为演员表演过的作品,作品评价可以为用户对演员在作品中的表现进行的评价,例如,可以从影评网站的网页资源中获取演员对应的作品评价,如章子怡等演员在《罗曼蒂克消亡史》中的评价等。进一步,可以对演员对应的作品和/或作品评价进行分析,以得到演员对应的属性特征。具体地,可以将演员在该作品中的角色特征作为演员对应的属性特征,或者,对演员在该作品中的角色特征进行归纳总结后,得到演员对应的属性特征。或者,可以从演员对应的作品评价中抽取演员对应的属性特征。可以理解,本发明实施例对于依据演员对应的作品和/或作品评价,确定所述演员对应的属性特征的具体过程不加以限制。
在本发明的另一种实施例中,可以从互联网的网页资源中获取演员对应的评价特征。例如,可以从例如“知乎”的网络问答社区获取“如何评价演员A的演技或长相或人气”、“如何评价演员A在某影片中的表现”等问题的答案。进一步,可以从演员对应的评价特征中抽取演员对应的属性特征。例如,可以从“章子怡”的评价特征中抽取对应的属性特征:“淡妆浓抹”、“古今皆宜”、“适合各种各样的角色”、“演谁像谁”等;又如,可以从“汤唯”的评价特征中抽取对应的属性特征:“适合电影”、“有雕塑感”、“适合内敛个性气质角色”等。
在本发明的一种可选实施例中,查找得到的所述故事大纲中角色标签对应的目标演员可以为多个,此种情况下,可以依据演员的热度特征和/或演员的属性特征与角色标签之间的匹配度等特征因子,从所述故事大纲中角色标签对应的多个目标演员选取特征因子数值最大的K个目标演员,可以理解,K可以为自然数,本发明实施例对于K的具体数值不加以限制。
步骤103可以依据步骤101得到的故事大纲及步骤102得到的目标演员,从视频片段数据库中获取所述故事大纲中时间段对应的目标视频片段。其中,上述视频片段数据库中可以存储有视频片段与视频标签之间的映射关系,其中,该视频标签可以包括:演员标签、视频特征标签等,这样,可以依据故事大纲中时间段对应事件的标签和目标演员,从该视频片段数据库中获取所述时间段对应的目标视频片段。可选地,上述视频特征标签可以包括:故事情节标签、镜头标签、时代背景标签、场景标签、导演标签、镜头风格标签、背景音乐标签、关键对白标签和服化道标签中的至少一种,由此可以实现视频描述标签与事件的标签之间的匹配。
在实际应用中,故事大纲中时间段对应的时间段长度可以为粗略值,故从视频片段数据库中获取的某时间段[Ti-Ti+1]对应的目标视频片段的长度与时间段[Ti-Ti+1]对应的时间段长度可以一致或者不一致。在从视频片段数据库中获取的目标视频片段的长度与对应时间段的时间段长度不一致时,可以将对应时间段的时间段长度替换为目标视频片段的长度。
可选地,该故事大纲中时间段对应的时间段长度可以对应一个时长范围,目标视频片段的长度在该时长范围之内,可以认为目标视频片段的长度与时间段对应的时间段长度一致。时长范围的例子可以包括:[L-D,L+D],其中,L可以为通过前述方式确定的时间段长度,D与L的比值可以为小于1的阈值,例如,该阈值可以为0.3等数值。
在本发明的一种应用示例中,对于表1中的时间段[T1-T2]对应事件1,假设事件1的标签包括场景标签,该场景标签包括:“帝国大厦”,进一步假设步骤102确定男一对应的目标演员为“吴秀波”,女一对应的目标演员为“汤唯”,故可以从视频片段数据库中获取视频标签包括“汤唯”、“吴秀波”、“帝国大厦”的视频片段,作为时间段[T1-T2]对应的目标视频片段。可以理解,所述故事大纲中时间段对应的目标视频片段的数量可以大于等于1。
在本发明的另一种应用示例中,假设步骤102确定《西游记》中男一对应的目标演员为“张一山”,某事件对应有男一的演员表情标签1(如“反抗”和“委屈”)和关键对白标签1,则可以从视频片段数据库中获取视频标签包括“张一山”、演员表情标签1和关键对白标签1的视频片段,作为该事件对应的目标视频片段。
在本发明的一种可选实施例中,上述视频片段数据库的建立过程可以包括:基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;确定所述视频片段对应的视频标签;该视频标签可以包括:演员标签;依据所述视频片段及其对应的视频标签,建立视频片段数据库。
在实际应用中,可以收集源视频,并从收集的源视频中截取视频片段。可以理解,本发明实施例对于源视频的来源和收集方式不加以限制。例如,可以从影视数据库和/或互联网的视频资源中获取源视频。
根据一些实施例,可以预先针对现有的演员的人脸数据进行学习,以得到对应的人脸特征,该人脸特征可以包括:几何特征和代数特征。进一步,可以依据演员对应的人脸特征对海量的源视频进行扫描,以从中自动截取包含一个或多个演员的视频片段。例如,在预先获得“章子怡”对应的人脸特征的情况下,可以依据“章子怡”对应的人脸特征,从海量的源视频中自动截取包含“章子怡”的视频片段,同理,可以从海量的源视频中自动截取包含任意的一个演员或者多个演员的视频片段。
在获取视频片段的基础上,可以确定所述视频片段对应的视频标签,其中,该视频标签可以包括:演员标签和视频特征标签等,其中,演员标签可表示演员本身的标签(如演员姓名标签)、以及演员通过以及演员通过视频表现的标签(如演员表情标签);视频特征标签可用于表示视频的拍摄特征等信息。
在本发明的一种可选实施例中,可以依据所述视频片段的弹幕,确定所述视频片段对应的视频标签。其中,弹幕指直接显现在视频上的评论,可以以滚动、停留甚至更多动作特效方式出现在视频上,是观看视频的人发送的简短评论,在实际应用中,可以从弹幕中抽取视频片段对应的演员表情标签、场景标签等信息。
在本发明的另一种可选实施例中,上述确定所述视频片段对应的视频标签的过程可以包括:对所述视频片段中人脸的表情和/或场景进行识别;并根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。在实际应用中,可以采用表情识别模型进行人脸的表情识别,得到的表情识别结果(如喜怒哀乐等)可以作为演员表情标签的确定依据。和/或,可以采用场景识别模型进行视频片段中场景的识别,得到的场景识别结果可以作为场景标签的确定依据,确定的场景标签可用于表示事件所处的场景,如自然场景(如海边、天空、山脉等)、城市场景(如街道、室内等)等。
在本发明的其他实施例中,上述确定所述视频片段对应的视频标签的过程中,确定视频片段对应的故事情节标签、镜头标签、时代背景标签、导演标签、镜头风格标签、背景音乐标签和服化道标签中的至少一种。可选地,可以从视频片段对应作品的信息中获取对应的时代背景标签、导演标签和服化道标签;可以从视频片段的字幕、弹幕、分集剧情等信息中获取对应的故事情节标签、镜头标签、镜头风格标签等,可以理解,本发明实施例对视频片段对应的视频标签的具体确定方式不加以限制。
本发明实施例中,上述目标视频片段可以为人物视频片段。在本发明的一种可选实施例中,本发明实施例的方法还可以包括:在事件的标签不包括角色标签的情况下,可以依据故事大纲中事件的标签(如场景标签),从视频片段数据库中获取所述故事大纲中时间段对应的景物视频片段,上述景物视频片段可以作为人物视频视频片段的辅助和补充,这样可以提高生成的视频的自然度。上述景物视频片段的例子可以包括:自然风景片段,如海边、天空、山脉等。
在实际应用中,故事大纲中时间段对应的目标视频片段可以为一个或者多个。其中,在故事大纲中时间段对应的目标视频片段为多个的情况下,可以依据时间段对应事件的标签与目标视频片段的视频标签之间的匹配度,对故事大纲中时间段对应的多个目标视频片段进行筛选,上述筛选可以得到时间段对应事件的标签与目标视频片段的视频标签之间的匹配度最高的目标视频片段,由此可以提高目标视频片段与时间段对应事件之间的匹配度。
步骤104可以依据所述故事大纲对应的时间轴,对步骤103得到的时间段对应的目标视频片段进行拼接,以得到所述故事大纲对应的视频。上述拼接可以按照时间轴上时间段的顺序,进行目标视频片段的整合,最终可以得到整个故事大纲对应的视频。
在本发明的一种可选实施例中,所述事件的标签还可以包括:情感标签,则本发明实施例的方法还可以包括:依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;为所述故事大纲中时间段对应的目标视频片段添加对应的背景音乐。背景音乐称为配乐,为视频中调节气氛的一种音乐,插入于对话之中,能够增强情感的表达,达到一种让观众身临其境的感受。本发明实施例可以依据故事大纲中事件的情感标签,自动获取所述故事大纲中时间段对应的背景音乐,这样可以增强视频片段表达的情感。
例如,某事件对应的情感标签为“悲伤凄凉”,则可以自动获取二胡曲作为对应的背景音乐。又如,某事件对应的情感标签为“恐怖紧张”,则可以将例如《哈利波特与凤凰社》的背景音乐作为对应的背景音乐等。
在本发明的一种可选实施例中,可以预先建立背景音乐库,该背景音乐库中可以存储背景音乐与情感标签之间的映射关系,这样,可以依据故事大纲中事件的情感标签,在背景音乐库中查找得到对应的背景音乐。在本发明的另一种可选实施例中,可以依据故事大纲中事件的情感标签,确定背景音乐的节奏、乐器和旋律,进而依据背景音乐的节奏、乐器和旋律生成对应的背景音乐。可以理解,本发明实施例对于故事大纲中时间段对应的背景音乐的具体获取方式不加以限制。
需要说明的是,在为所述故事大纲中时间段对应的目标视频片段添加对应的背景音乐之后,可以依据所述故事大纲对应的时间轴,对时间段对应的添加有背景音乐的目标视频片段进行拼接,以得到所述故事大纲对应的视频。
在本发明的一种可选实施例中,步骤104在对时间段对应的目标视频片段进行拼接的过程中,可以在相邻时间段对应的目标视频片段之间添加随机转场效果。其中,转场就是一种特殊的滤镜效果,其可以在两个目标视频片段之间创建某种过渡效果,运用转场效果,可以让目标视频片段之间的过渡效果更加自然和生动。
在本发明的另一种可选实施例中,还可以根据故事大纲中事件的镜头风格标签,为所述时间段对应的目标视频片段添加对应滤镜。具体地,对于镜头风格标签“会议”,可以采用黑白/褪色滤镜;对于镜头风格标签“青春”或者“春天”,可以采用高饱和和高亮的明艳滤镜;对于镜头风格标签“女性美貌”,可以采用柔光滤镜等。此种情况下,可以依据所述故事大纲对应的时间轴,对时间段对应的添加有滤镜的目标视频片段进行拼接,以得到所述故事大纲对应的视频。
综上,本发明实施例的视频的生成方法,将故事大纲和故事大纲中角色标签对应的目标演员作为获取目标视频片段的媒介,这样可以针对目标文本自动生成对应的视频,因此可以节省传统方案中现场拍摄环节和后期制作环节耗费的人力、物力和财力成本,有效降低视频的生成成本。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的运动动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的运动动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的运动动作并不一定是本发明实施例所必须的。
装置实施例
参照图2,示出了本发明的一种视频的生成装置实施例的结构框图,具体可以包括:故事大纲获取模块201、目标演员确定模块202、目标视频片段获取模块203和目标视频片段拼接模块204。
其中,故事大纲获取模块201,用于获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签可以包括:角色标签;
目标演员确定模块202,用于确定所述故事大纲中各角色标签对应的目标演员;
目标视频片段获取模块203,用于依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;以及
目标视频片段拼接模块204,用于依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
可选地,所述故事大纲获取模块可以包括:主题确定子模块、标签挖掘子模块和故事大纲生成模块;
其中,所述主题确定子模块,用于确定目标文本对应的目标主题;
所述标签挖掘子模块,用于利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所可以包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;
所述故事大纲生成模块,用于依据目标文本对应故事所可以包括事件的标签,生成故事大纲。
可选地,所述挖掘模型可以包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;
其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;
所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;
所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
可选地,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
可选地,所述目标演员确定模块可以包括:
演员查找子模块,用于依据所述故事大纲中可以包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中可以包括的各角色标签对应的目标演员。
可选地,所述装置还可以包括:
演员属性确定模块,用于依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;
映射表建立模块,用于建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
可选地,所述装置还可以包括:
视频片段截取模块,用于基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;
视频标签确定模块,用于确定所述视频片段对应的视频标签;所述视频标签可以包括:演员标签;
视频片段数据库确定模块,用于依据所述视频片段及其对应的视频标签,建立视频片段数据库。
可选地,所述视频标签确定模块可以包括:识别子模块和确定子模块;
其中,所述识别子模块,用于对所述视频片段中人脸的表情和/或场景进行识别;
所述确定子模块,用于根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
可选地,所述事件的标签还可以包括:情感标签,所述装置还可以包括:
背景音乐获取模块,用于依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;
背景音乐添加模块,用于为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明实施例还提供了一种视频的生成的装置,该装置可以包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;确定所述故事大纲中各角色标签对应的目标演员;依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
可选地,所述获取目标文本对应的故事大纲,包括:确定目标文本对应的目标主题;利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;依据目标文本对应故事所包括事件的标签,生成故事大纲。
可选地,所述挖掘模型包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
可选地,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
可选地,所述确定所述故事大纲中各角色标签对应的目标演员,包括:依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。
可选地,所述装置还经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
可选地,所述装置还经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;确定所述视频片段对应的视频标签;所述视频标签包括:演员标签;依据所述视频片段及其对应的视频标签,建立视频片段数据库。
可选地,所述确定所述视频片段对应的视频标签,包括:对所述视频片段中人脸的表情和/或场景进行识别;根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
可选地,所述事件的标签还包括:情感标签,所述装置还经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
图3是根据一示例性实施例示出的一种视频的生成的装置900作为终端时的框图。例如,装置900可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图3,装置900可以包括以下一个或多个组件:处理组件902,存储器904,电源组件906,多媒体组件908,音频组件910,输入/输出(I/O)的接口912,传感器组件914,以及通信组件916。
处理组件902通常控制装置900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件902可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在设备900的操作。这些数据的示例包括用于在装置900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件906为装置900的各种组件提供电力。电源组件906可以包括电源管理系统,一个或多个电源,及其他与为装置900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述装置900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动运动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当设备900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当装置900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。
I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件914包括一个或多个传感器,用于为装置900提供各个方面的状态评估。例如,传感器组件914可以检测到设备900的打开/关闭状态,组件的相对定位,例如所述组件为装置900的显示器和小键盘,传感器组件914还可以检测装置900或装置900一个组件的位置改变,用户与装置900接触的存在或不存在,装置900方位或加速/减速和装置900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物品的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件916被配置为便于装置900和其他设备之间有线或无线方式的通信。装置900可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由装置900的处理器920执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图4是本发明的一些实施例中服务器的结构示意图。该服务器1900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processingunits,CPU)1922(例如,一个或一个以上处理器)和存储器1932,一个或一个以上存储应用程序1942或数据1944的存储介质1930(例如一个或一个以上海量存储设备)。其中,存储器1932和存储介质1930可以是短暂存储或持久存储。存储在存储介质1930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1922可以设置为与存储介质1930通信,在服务器1900上执行存储介质1930中的一系列指令操作。
服务器1900还可以包括一个或一个以上电源1926,一个或一个以上有线或无线网络接口1950,一个或一个以上输入输出接口1958,一个或一个以上键盘1956,和/或,一个或一个以上操作系统1941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置(终端或者服务器)的处理器执行时,使得装置能够执行一种视频的生成方法,所述方法包括:获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;确定所述故事大纲中各角色标签对应的目标演员;依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上对本发明所提供的一种视频的生成方法、一种视频的生成装置和一种视频的生成的装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (28)

1.一种视频的生成方法,其特征在于,包括:
获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;
确定所述故事大纲中各角色标签对应的目标演员;
依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;
依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
2.根据权利要求1所述的方法,其特征在于,所述获取目标文本对应的故事大纲,包括:
确定目标文本对应的目标主题;
利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;
依据目标文本对应故事所包括事件的标签,生成故事大纲。
3.根据权利要求2所述的方法,其特征在于,所述挖掘模型包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;
其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;
所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;
所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
4.根据权利要求3所述的方法,其特征在于,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
5.根据权利要求1至4中任一所述的方法,其特征在于,所述确定所述故事大纲中各角色标签对应的目标演员,包括:
依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;
建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
7.根据权利要求1至4中任一所述的方法,其特征在于,所述方法还包括:
基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;
确定所述视频片段对应的视频标签;所述视频标签包括:演员标签;
依据所述视频片段及其对应的视频标签,建立视频片段数据库。
8.根据权利要求7所述的方法,其特征在于,所述确定所述视频片段对应的视频标签,包括:
对所述视频片段中人脸的表情和/或场景进行识别;
根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
9.根据权利要求1至4中任一所述的方法,其特征在于,所述事件的标签还包括:情感标签,所述方法还包括:
依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;
为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
10.一种视频的生成装置,其特征在于,包括:
故事大纲获取模块,用于获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;
目标演员确定模块,用于确定所述故事大纲中各角色标签对应的目标演员;
目标视频片段获取模块,用于依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;以及
目标视频片段拼接模块,用于依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
11.根据权利要求10所述的装置,其特征在于,所述故事大纲获取模块包括:主题确定子模块、标签挖掘子模块和故事大纲生成模块;
其中,所述主题确定子模块,用于确定目标文本对应的目标主题;
所述标签挖掘子模块,用于利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;
所述故事大纲生成模块,用于依据目标文本对应故事所包括事件的标签,生成故事大纲。
12.根据权利要求11所述的装置,其特征在于,所述挖掘模型包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;
其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;
所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;
所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
13.根据权利要求12所述的装置,其特征在于,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
14.根据权利要求10至13中任一所述的装置,其特征在于,所述目标演员确定模块包括:
演员查找子模块,用于依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。
15.根据权利要求14所述的装置,其特征在于,所述装置还包括:
演员属性确定模块,用于依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;
映射表建立模块,用于建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
16.根据权利要求10至13中任一所述的装置,其特征在于,所述装置还包括:
视频片段截取模块,用于基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;
视频标签确定模块,用于确定所述视频片段对应的视频标签;所述视频标签包括:演员标签;
视频片段数据库确定模块,用于依据所述视频片段及其对应的视频标签,建立视频片段数据库。
17.根据权利要求16所述的装置,其特征在于,所述视频标签确定模块包括:识别子模块和确定子模块;
其中,所述识别子模块,用于对所述视频片段中人脸的表情和/或场景进行识别;
所述确定子模块,用于根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
18.根据权利要求10至13中任一所述的装置,其特征在于,所述事件的标签还包括:情感标签,所述装置还包括:
背景音乐获取模块,用于依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;
背景音乐添加模块,用于为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
19.一种视频的生成的装置,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取目标文本对应的故事大纲;所述故事大纲为带有时间轴的事件流,所述时间轴上各时间段对应事件的标签包括:角色标签;
确定所述故事大纲中各角色标签对应的目标演员;
依据所述故事大纲及所述目标演员,从视频片段数据库中获取所述故事大纲中各时间段对应的目标视频片段;
依据所述故事大纲对应的时间轴,对所述目标视频片段进行拼接,以得到所述故事大纲对应的视频。
20.根据权利要求19所述的装置,其特征在于,所述获取目标文本对应的故事大纲,包括:
确定目标文本对应的目标主题;
利用所述目标主题对应的挖掘模型,挖掘得到目标文本对应故事所包括事件的标签;其中,所述挖掘模型为依据所述目标主题对应的故事语料训练得到;
依据目标文本对应故事所包括事件的标签,生成故事大纲。
21.根据权利要求20所述的装置,其特征在于,所述挖掘模型包括:角色挖掘模型,以及,镜头挖掘模型和情节挖掘模型中的至少一种;
其中,所述角色挖掘模型,通过对预置主题对应的故事语料进行角色挖掘学习得到;
所述镜头挖掘模型,通过对预置主题对应的故事语料中故事情节进行分镜学习得到;
所述情节挖掘模型,通过对预置主题对应的故事语料进行情节挖掘学习得到。
22.根据权利要求21所述的装置,其特征在于,所述情节挖掘模型依据故事情节对应的热度特征和/或评价特征,对预置主题对应的故事语料进行情节挖掘学习。
23.根据权利要求19至22中任一所述的装置,其特征在于,所述确定所述故事大纲中各角色标签对应的目标演员,包括:
依据所述故事大纲中包括的各角色标签,在演员与属性特征之间的映射关系表中进行查找,以得到所述故事大纲中包括的各角色标签对应的目标演员。
24.根据权利要求23所述的装置,其特征在于,所述装置还经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
依据演员对应的作品和/或作品评价和/或演员评价,确定所述演员对应的属性特征;
建立所述演员与所述属性特征之间的映射关系并保存在映射关系表中。
25.根据权利要求19至22中任一所述的装置,其特征在于,所述装置还经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
基于人脸识别技术,从源视频中截取包含一个或多个演员的视频片段;
确定所述视频片段对应的视频标签;所述视频标签包括:演员标签;
依据所述视频片段及其对应的视频标签,建立视频片段数据库。
26.根据权利要求25所述的装置,其特征在于,所述确定所述视频片段对应的视频标签,包括:
对所述视频片段中人脸的表情和/或场景进行识别;
根据表情识别结果和/或场景识别结果,确定所述视频片段对应的视频标签。
27.根据权利要求19至22中任一所述的装置,其特征在于,所述事件的标签还包括:情感标签,所述装置还经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
依据所述故事大纲中事件的情感标签,获取所述故事大纲中时间段对应的背景音乐;
为所述故事大纲中各时间段对应的目标视频片段添加对应的背景音乐。
28.一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如权利要求1至9中一个或多个所述的视频的生成方法。
CN201710392611.9A 2017-05-27 2017-05-27 视频的生成方法和装置 Active CN108933970B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710392611.9A CN108933970B (zh) 2017-05-27 2017-05-27 视频的生成方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710392611.9A CN108933970B (zh) 2017-05-27 2017-05-27 视频的生成方法和装置

Publications (2)

Publication Number Publication Date
CN108933970A CN108933970A (zh) 2018-12-04
CN108933970B true CN108933970B (zh) 2022-02-25

Family

ID=64448565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710392611.9A Active CN108933970B (zh) 2017-05-27 2017-05-27 视频的生成方法和装置

Country Status (1)

Country Link
CN (1) CN108933970B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102604937B1 (ko) 2018-12-05 2023-11-23 삼성전자주식회사 캐릭터를 포함하는 동영상을 생성하기 위한 전자 장치 및 그에 관한 방법
CN109982109B (zh) * 2019-04-03 2021-08-03 睿魔智能科技(深圳)有限公司 短视频的生成方法及装置、服务器和存储介质
TWI716033B (zh) * 2019-07-15 2021-01-11 李姿慧 影像配樂智能系統
CN110324709A (zh) * 2019-07-24 2019-10-11 新华智云科技有限公司 一种视频生成的处理方法、装置、终端设备及存储介质
CN110534131A (zh) * 2019-08-30 2019-12-03 广州华多网络科技有限公司 一种音频播放方法及系统
CN110602546A (zh) * 2019-09-06 2019-12-20 Oppo广东移动通信有限公司 视频生成方法、终端及计算机可读存储介质
CN111083393B (zh) * 2019-12-06 2021-09-14 央视国际网络无锡有限公司 一种智能化制作短视频的方法
CN110996138B (zh) * 2019-12-17 2021-02-05 腾讯科技(深圳)有限公司 一种视频标注方法、设备及存储介质
US11678029B2 (en) 2019-12-17 2023-06-13 Tencent Technology (Shenzhen) Company Limited Video labeling method and apparatus, device, and computer-readable storage medium
SG10202001693VA (en) * 2020-02-26 2021-09-29 Pensees Pte Ltd Methods and Apparatus for AI (Artificial Intelligence) Movie Producer System
CN111447507B (zh) * 2020-03-20 2022-03-22 北京百度网讯科技有限公司 视频制作方法和装置、电子设备和存储介质
CN111460219B (zh) * 2020-04-01 2023-07-14 百度在线网络技术(北京)有限公司 视频处理方法及装置、短视频平台
CN111491206B (zh) * 2020-04-17 2023-03-24 维沃移动通信有限公司 视频处理方法、视频处理装置及电子设备
CN111711855A (zh) * 2020-05-27 2020-09-25 北京奇艺世纪科技有限公司 视频生成方法及装置
CN111629230B (zh) * 2020-05-29 2023-04-07 北京市商汤科技开发有限公司 视频处理、脚本生成方法、装置、计算机设备及存储介质
CN111739358A (zh) * 2020-06-19 2020-10-02 联想(北京)有限公司 一种教学文件的输出方法、装置及电子设备
CN112218102B (zh) * 2020-08-29 2024-01-26 上海量明科技发展有限公司 视频内容发包制作方法、客户端及系统
CN112188117B (zh) * 2020-08-29 2021-11-16 上海量明科技发展有限公司 视频合成方法、客户端及系统
CN112035705A (zh) * 2020-08-31 2020-12-04 北京市商汤科技开发有限公司 标签生成方法及装置、电子设备和存储介质
CN112153478B (zh) * 2020-09-11 2022-03-08 腾讯科技(深圳)有限公司 一种视频处理方法和视频播放方法
CN112860939B (zh) * 2021-02-19 2023-09-26 北京百度网讯科技有限公司 音视频数据处理方法、装置、设备和存储介质
CN113691854A (zh) * 2021-07-20 2021-11-23 阿里巴巴达摩院(杭州)科技有限公司 视频创建方法、装置、电子设备及计算机程序产品
CN113938712B (zh) * 2021-10-13 2023-10-10 北京奇艺世纪科技有限公司 一种视频播放方法、装置及电子设备
CN115119050B (zh) * 2022-06-30 2023-12-15 北京奇艺世纪科技有限公司 一种视频剪辑方法和装置、电子设备和存储介质
CN116226446B (zh) * 2023-05-06 2023-07-18 深圳市人马互动科技有限公司 一种互动项目的互动方法及相关装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101021852A (zh) * 2006-10-10 2007-08-22 鲍东山 基于内容的视频搜索调度系统
KR20140101146A (ko) * 2013-02-08 2014-08-19 경희대학교 산학협력단 영화 정규화 모델 생성 방법 및 그 장치
CN104915433A (zh) * 2015-06-24 2015-09-16 宁波工程学院 一种影视视频检索方法
CN106210450A (zh) * 2016-07-20 2016-12-07 罗轶 基于slam的影视人工智能
CN106709968A (zh) * 2016-11-30 2017-05-24 剧加科技(厦门)有限公司 剧本故事信息的数据可视化方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070088844A1 (en) * 2005-06-07 2007-04-19 Meta Interfaces, Llc System for and method of extracting a time-based portion of media and serving it over the Web

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101021852A (zh) * 2006-10-10 2007-08-22 鲍东山 基于内容的视频搜索调度系统
KR20140101146A (ko) * 2013-02-08 2014-08-19 경희대학교 산학협력단 영화 정규화 모델 생성 방법 및 그 장치
CN104915433A (zh) * 2015-06-24 2015-09-16 宁波工程学院 一种影视视频检索方法
CN106210450A (zh) * 2016-07-20 2016-12-07 罗轶 基于slam的影视人工智能
CN106709968A (zh) * 2016-11-30 2017-05-24 剧加科技(厦门)有限公司 剧本故事信息的数据可视化方法及系统

Also Published As

Publication number Publication date
CN108933970A (zh) 2018-12-04

Similar Documents

Publication Publication Date Title
CN108933970B (zh) 视频的生成方法和装置
US10659499B2 (en) Providing selectable content items in communications
CN106024009B (zh) 音频处理方法及装置
CN104796781B (zh) 视频片段提取方法及装置
KR102290419B1 (ko) 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치
CN112616063A (zh) 一种直播互动方法、装置、设备及介质
CN112188117B (zh) 视频合成方法、客户端及系统
CN113709561A (zh) 视频剪辑方法、装置、设备及存储介质
CN111279709B (zh) 提供视频推荐
CN112752121B (zh) 一种视频封面生成方法及装置
CN112291614A (zh) 一种视频生成方法及装置
CN109429077A (zh) 视频处理方法和装置、用于视频处理的装置
CN112068711A (zh) 一种输入法的信息推荐方法、装置和电子设备
Wu et al. MoVieUp: Automatic mobile video mashup
CN113852767B (zh) 视频编辑方法、装置、设备及介质
CN114339076A (zh) 视频拍摄方法、装置、电子设备以及存储介质
JPWO2017056387A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113778301A (zh) 基于内容服务的情绪互动方法及电子设备
US20230067387A1 (en) Method for music generation, electronic device, storage medium cross reference to related applications
CN112188116A (zh) 基于对象的视频合成方法、客户端及系统
CN113259754A (zh) 视频生成方法、装置、电子设备及存储介质
KR20120111855A (ko) 사용자 정보에 따른 스토리 생성 장치 및 방법
CN113642394B (zh) 一种虚拟对象的动作处理方法、装置和介质
CN112004033B (zh) 视频封面确定方法及装置、存储介质
Kohn From a slight smile to scathing sarcasm: Shades of humor in Israeli photojournalism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant