CN115481254A - 一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备 - Google Patents

一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备 Download PDF

Info

Publication number
CN115481254A
CN115481254A CN202211210817.2A CN202211210817A CN115481254A CN 115481254 A CN115481254 A CN 115481254A CN 202211210817 A CN202211210817 A CN 202211210817A CN 115481254 A CN115481254 A CN 115481254A
Authority
CN
China
Prior art keywords
visual effect
script
content
effect content
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211210817.2A
Other languages
English (en)
Inventor
陈奕
李伟
朱骥明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Timeaxis Film And Television Media Co ltd
Original Assignee
Hangzhou Timeaxis Film And Television Media Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Timeaxis Film And Television Media Co ltd filed Critical Hangzhou Timeaxis Film And Television Media Co ltd
Priority to CN202211210817.2A priority Critical patent/CN115481254A/zh
Publication of CN115481254A publication Critical patent/CN115481254A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/54Indexing scheme relating to G06F9/54
    • G06F2209/541Client-server

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备。首先通过前期人工标注样本对视效内容识别分类模型进行训练,训练完毕后将该模型连同通用文本分词模型部署在服务端。当需要对待处理剧本进行视效内容识别时,客户端将剧本按照集场次拆分成文本段落上传到服务端,服务端对文本进行分词,并进行视效内容识别分类,将识别结果反馈到客户端,最终由客户端对全剧本的分析结果进行整体统计,形成视效资产表和视效分场表。本发明采用通用文本分词模型和视效内容识别分类模型来实现剧本中视效内容的自动识别,优化了剧本分析的操作流程,大大加快了剧本分析的速度,减轻了剧本分析的工作量。

Description

一种对影视剧剧本进行视效内容分析的方法、系统、可读存储 介质和设备
技术领域
本发明属于影视剧视效制作的技术领域,具体涉及一种对影视剧剧本进行视效内容分析的方法,系统,可读存储介质和设备。
背景技术
现代影视剧的创作中,使用计算机创建的视觉效果(简称视效制作)是其中非常重要的一个组成部分。而视效制作的预算与影视剧剧本中的视效内容息息相关。所以在每部剧的视效制作开始之前,制作方都需要对剧本内容进行一次梳理,整理出这部剧所需的视效数字资产(包括角色,道具,环境等),以及各场次的具体的视效镜头制作内容,并对这些资产和镜头制作进行难度、数量和时长的评估,结合制作方过往的经验,拟定相应的预算。
现有的技术主要是将剧本打印成文稿,依靠人工在文稿上对剧本上每一场的内容进行阅读,然后对其中需要进行视效制作的剧本段落和数字资产进行某种形式的标注(例如用荧光笔划线等),接着将标注好的内容按照场次顺序和资产类型再分别整理到excel中形成视效内容分析表和数字资产表。最后根据这两张表,评估制作的难度和时长,结合过往的经验价格,形成视效预算。
综上所述,现有方法存在的主要不足包括:
1.对剧本内容的分析,需要依赖人力通读全文。由于现代的影视剧一般都多达数十集,相应的剧本量也很多。要对所有剧本从头到尾标注一遍费时费力,效率较低。
2.在纸质文稿上分析标注完毕之后,还要再人工转录一遍到excel上,才能得到视效内容分析表和数字资产表。这个过程同样费时费力,效率低下,且容易出错和遗漏。
发明内容
为了克服现有的剧本视效分析方法流程复杂,全人工操作效率低下,且需要经历介质转换,文件管理混乱的不足,本发明提供一种对影视剧剧本进行视效内容分析的方法,系统,可读存储介质和设备,在同一介质中可标记剧本中的视效内容段落和数字资产,将其按场次和类型归类整理,并结合预置的价格,快速生成视效预算表。
本发明的技术方案如下:
第一发明,本发明提供了一种对影视剧剧本进行视效内容分析的方法,其包括如下步骤:
S11准备一批标注完成的剧本作为学习样本,每个剧本标注的内容是剧本中与视效内容相关的关键词汇,所述视效内容包括视效资产和视效事件;
S12利用通用文本分词模型将学习样本分割成可识别的词汇;
S13将分割后的词汇和事先标注的词汇标签放入识别分类循环神经网络进行网络训练,经过训练得到视效内容识别分类模型;
将视效内容识别分类模型连同通用文本分词模型部署到服务端上;
S21将待处理的剧本录入客户端,在客户端使用字符格式匹配将剧本按照集场次拆分成文本段落;
S22按集场先后顺序将自然文本段落从客户端上传到服务端;通过通用文本分词模型将文本段落分割成具有连续性的词汇;
S23服务端使用预先训练好的视效内容识别分类模型来对词汇进行检测,识别视效资产和视效事件;完成对词汇的分类识别;
S24识别操作完成后,得到识别分类结果,将结果返回给客户端,客户端上将在剧本上以特定的标记将识别到的词汇表示出来;最后客户端对全剧本的分析结果进行整体统计,形成视效资产表和视效分场表。
根据本发明的一种可选实施方式,所述的S21中,剧本分为若干集,每一集包括若干场,每一场的第一行交代集场号、内外景、时间、地点,从第二行开始是剧情内容;所述的S21将各集各场的剧本内容,按场次先后顺序分解为与场次关联的一个个自然文本段落。
根据本发明的一种可选实施方式,所述的S23中,除了采用视效内容识别分类模型来对词汇进行检测外,还包括针对具体剧本中的专属词汇采用人工指导辅助识别的步骤,具体为:使用触控笔对客户端展示的部分剧本中的专属词汇进行人工辅助标记,人工辅助标记的词汇在服务端会自动进行全剧本的搜索并做上相同的标记。
第二方面,本发明提供了一种实施所述方法的对影视剧剧本进行视效内容分析的系统,其包括:
便携式终端,其作为客户端具有可交互的显示界面用以显示剧本,并接受用户对剧本内容的标注;所述便携式终端用于将剧本按照集场次拆分成文本段落并上传到AI智能解析服务端,其获取AI智能解析服务端的视效内容识别结果,根据视效内容识别结果汇总出视效资产表和视效分场内容表;
AI智能解析服务端,用于获取便携式终端上传的文本段落,对文本段落进行分词,对分词后的词汇进行视效内容识别,将视效内容识别结果传输到便携式终端;
所述便携式终端与AI智能解析服务端之间采用无线通信进行通讯。
根据本发明的一种可选实施方式,所述的AI智能解析服务端包括:
通用文本分词模型,将文本段落进行分割成具有连续性的词汇;
视效内容识别分类模型,对通用文本分词模型分词后的词汇进行检测,识别视效资产和视效事件。
第三方面,本发明提供了一种可读存储介质,其上存储有可执行程序,,所述可执行程序被处理器执行时实现所述的对影视剧剧本进行视效内容分析的方法的步骤。
第四方面,本发明提供了一种计算机设备,包括存储器和处理器,所述存储器存储有可执行程序,所述处理器执行所述可执行程序时实现所述的对影视剧剧本进行视效内容分析的方法的步骤。
与现有技术相比,本发明所具有的有益效果包括:
1.本发明采用通用文本分词模型和视效内容识别分类模型来实现剧本中视效内容的自动识别,优化了剧本分析的操作流程,大大加快了剧本分析的速度,减轻了剧本分析的工作量。本发明将数据标记和汇总都集中到客户端;服务端运行通用文本分词模型和视效内容识别分类模型,可以满足多个客户端远程的访问和视效内容的自动识别工作。
2.本发明使用了神经网络技术对剧本内容进行辅助识别,待处理的对象均是文本词汇,经人工标注样本训练后的视效内容识别分类模型能够很好的满足视效内容识别分类工作;当遇到包含专属词汇的特定剧本内容时,可以对具体剧本中的专属词汇采用人工指导辅助识别的步骤,从而提高模型对于形形色色的剧本的分析精度,同时也提高了分析效率。
附图说明
图1为本发明的流程示意图;
图2为实施例中示意的一段剧本标准格式;
图3为本发明的待处理的案例剧本示意;
图4为案例剧本的识别结果示意图;
图5为本发明案例最终得到的视效分场内容表示意图。
具体实施方式
下面结合具体实施方式对本发明做进一步阐述和说明。所述实施例仅是本公开内容的示范且不圈定限制范围。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
图1所示为本发明的流程示意图,参考图1,本发明的对影视剧剧本进行视效内容分析的系统,其包括:
便携式终端,其作为客户端具有可交互的显示界面用以显示剧本,并接受用户对剧本内容的标注;所述便携式终端用于将剧本按照集场次拆分成文本段落并上传到AI智能解析服务端,其获取AI智能解析服务端的视效内容识别结果,根据视效内容识别结果汇总出视效资产表和视效分场内容表;
AI智能解析服务端,用于获取便携式终端上传的文本段落,对文本段落进行分词,对分词后的词汇进行视效内容识别,将视效内容识别结果传输到便携式终端;
所述便携式终端与AI智能解析服务端之间采用无线通信进行通讯。
其中,所述的AI智能解析服务端包括:
通用文本分词模型,将文本段落进行分割成具有连续性的词汇;
视效内容识别分类模型,对通用文本分词模型分词后的词汇进行检测,识别视效资产和视效事件。
参考图1,本发明对影视剧剧本进行视效内容分析的方法具体包括如下步骤:
S1:准备阶段
S11确定学习样本
首先需要准备一批标注完成的剧本作为学习样本。每个剧本标注的目标是剧本中与视效内容相关的关键词汇,主要分为视效资产和视效事件两种部分。
其中,视效资产是指视效元素的客观载体,包括以下5种。
人物:剧中的演员角色,男女主角,男女配角,群众等;
非人生物:包括真实存在的动物或并不真实存在的怪物;
机械角色:由机械组成的非生命可活动体,例如机器人等;
道具:剧中角色使用的物品,包括武器,各种日用品等;
场景:剧本中故事发生的特定场所,如天宫,魔域。
视效事件是指视效资产在剧情中展现的某种超常或极端状态。例如剧中角色使用的特殊能力或效果,例如各种仙法,魔法,超能力等,或是现实中难以人工可控再现的特殊事件,例如火灾,海啸,台风,地震等,或者是场景的某种奇特氛围和布置等。
S12对样本进行文本分词
将样本都放入现有的基于循环神经网络的通用文本分词模型(例如百度NLP文本分词技术),通过让循环神经网络自主处理这些样本文字,将剧本分割成可识别的词汇。
S13利用分割后的词汇训练得到视效内容识别分类模型
将分割后的词汇放入设计好的识别分类循环神经网络(使用类似PyTorch这样的开源库来实现基于LSTM或者GRU模型的神经网络),与事先打上的标签一起,经过训练得到视效内容识别分类模型。
得到视效内容识别分类模型后,即完成准备阶段工作,之后就可以将视效内容识别分类模型连同通用文本分词模型部署到AI智能解析服务端上,从而应用于真实的数据,即待处理的剧本。
S2:工作阶段
S21获取待处理剧本段落
首先将剧本文字录入制片用便携式终端。在终端系统使用传统的字符格式匹配将剧本按照集场次拆分成文本段落。大多数剧本遵循特定的行业标准格式,每一场的第一行交代集场号,内外景,时间,地点,从第二行开始是剧情内容。类似图2所示。
根据图2所示的格式规律,将数十集上千场的剧本内容,按场次先后顺序分解为与场次关联的一个个自然文本段落。
S22调用文本分词模型处理每场戏的文本段落。
按集场先后顺序将自然文本段落从便携式终端上传到AI智能解析服务端。通过输入到通用文本分词模型,模型将文本段落进行分割成具有连续性的词汇。然后进入分类识别阶段。
S23调用视效内容识别分类模型处理词汇
服务端使用预先训练好的视效内容识别分类模型来对词汇进行一般性检测,主要是识别常见的视效资产和视效事件,比如代表魔法,超能力,灾难性事件,非自然环镜或极端环境等。
除了通用的识别方式,还可以输入人工指导的特别样本,主要是剧本中的特别设计的专属名词。使用触控笔对编写终端展示的一部分剧本文字进行标记,例如某角色的名字,某怪物的名字,某法术的名字。这种局部的标记会自动进行全剧本的搜索。
通过以上两种方式,服务端完成对词汇的分类识别。
S24输出结果
识别操作完成后,得到识别分类结果,如果某个词汇属于目标类别,则服务端对其进行标记,并将结果返回给便携式终端。便携式终端上将在剧本上以特定的颜色背景将识别到的词汇按类别进行区分并表示出来。
最后便携式终端上对全剧本的分析结果进行整体统计,形成视效资产表和视效分场表。视效表是对识别的视效内容的汇总,包括视效资产,类型,相关场次(该视效资产出现过的场次号)。分场表是对每个场次涉及内容的汇总,包括集场号,日夜景,内外景,场景,视效内容,关联视效资产。视效资产表的格式如表1所示,视效分场内容表的格式如表2所示,表中“-”表示待填写的内容。
表1视效资产表
视效资产 类型 相关场次
- - -
- - -
- - -
表2视效分场内容表
集场次 日/夜 内/外 场景 视效内容 相关视效资产
- - - - - -
- - - - - -
- - - - - -
根据上述对影视剧剧本进行视效内容分析的方法,本发明实施例还提供一种可读存储介质和计算机设备。
一种可读存储介质,其上存储有可执行程序,可执行程序被处理器执行时实现上述的对影视剧剧本进行视效内容分析的方法的步骤。上述可读存储介质,通过其存储的可执行程序,可以识别剩余未标记文本中的特效资产以及特效段落文本,并将结果以某种形式反应到客户端上,得到资产表和分场内容表。。
一种计算机设备,包括存储器和处理器,存储器存储有可执行程序,处理器执行可执行程序时实现上述的对影视剧剧本进行视效内容分析的方法的步骤。
上述计算机设备,通过在处理器上运行可执行程序,可以实现采用手持便携式操作客户端(例如ipad之类的)与云上AI服务端结合,人工标记与AI智能辅助识别相结合的方式。首先将剧本录入ipad,按集场先后顺序,开始进行人工初始化标记。标记的内容是特效戏中出现的特效资产(包括角色,道具,场景等)和特效剧情(比如法术,灾难性事件描述等)。人工标记的数据通过网络实时传入云端AI服务端,作为识别参考。AI服务端对自身的识别模型进行训练,训练完毕后即可进行应用。应用时,AI服务端对待处理的剧本进行识别,并向客户端反馈,自动识别未标记文本中的特效资产以及特效段落文本,并将结果以某种形式反应到ipad上。后续可以通过人工查看剧本,进一步对AI标记的部分进行确认。确认无误即完成了对全部剧本进行分析,得到资产表和分场内容表。以下结合一个具体案例,对本发明进行进一步的说明。案例剧本如下:
集场号 内外景 时间 地点
02-12 三角洲海滩别墅 凌晨
剧情内容如图3所示。
1)本发明首先将上述剧本文字输入便携式终端,终端首先对每个自然段进行格式解析,解析结果如下表3:
表3格式解析结果
Figure BDA0003875062240000081
2)解析好的文字,上传到AI智能解析服务端,调用通用文本分词模型,将自然段拆分成有意义的词汇。拆分结果如下表4(以下划线代表拆分结果):
表4文本分词拆分结果
Figure BDA0003875062240000082
Figure BDA0003875062240000091
3)调用训练好的视效内容识别模型,对拆分完毕的词汇进行识别,判断其是否属于视效内容(包括视效资产和视效事件),如果是的话,进一步判断其类型(视效事件:法术/超能力,自然元素,视效资产:非人角色,物品)。识别结果如图4所示,图中以灰色背景示意、方框、加粗字体等方式标注出不同的视效内容,即不同的视效事件或视效资产。图4仅是示意性的,实际标注时,可以用不同颜色的背景色或者采用不同的下划线形式或其它不同的标注形式进行不同的视效事件或视效资产的区分。
4)识别结果返回移动终端,根据识别的资产类型以及文字所在的自然段和所属集场信息,汇总出分析表。汇总得到的视效资产表如表5所示,视效分场内容表如图5所示。
综上,本发明采用客户端与服务端相结合的方式,通过前期人工标注样本对视效内容识别分类模型进行训练,训练完毕后将该模型连同通用文本分词模型部署在服务端。当需要对待处理剧本进行视效内容识别时,客户端将剧本按照集场次拆分成文本段落上传到服务端,服务端对文本进行分词,并进行视效内容识别分类,将识别结果反馈到客户端,客户端可根据需要对识别结果进行人工调整,最终由客户端对全剧本的分析结果进行整体统计,形成视效资产表和视效分场表。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种对影视剧剧本进行视效内容分析的方法,其特征在于包括如下步骤:
S11准备一批标注完成的剧本作为学习样本,每个剧本标注的内容是剧本中与视效内容相关的关键词汇,所述视效内容包括视效资产和视效事件;
S12利用通用文本分词模型将学习样本分割成可识别的词汇;
S13将分割后的词汇和事先标注的词汇标签放入识别分类循环神经网络进行网络训练,经过训练得到视效内容识别分类模型;
将视效内容识别分类模型连同通用文本分词模型部署到服务端上;
S21将待处理的剧本录入客户端,在客户端使用字符格式匹配将剧本按照集场次拆分成文本段落;
S22按集场先后顺序将自然文本段落从客户端上传到服务端;通过通用文本分词模型将文本段落分割成具有连续性的词汇;
S23服务端使用预先训练好的视效内容识别分类模型来对词汇进行检测,识别视效资产和视效事件;完成对词汇的分类识别;
S24识别操作完成后,得到识别分类结果,将结果返回给客户端,客户端上将在剧本上以特定的标记将识别到的词汇表示出来;最后客户端对全剧本的分析结果进行整体统计,形成视效资产表和视效分场表。
2.根据权利要求1所述的对影视剧剧本进行视效内容分析的方法,其特征在于,所述S11中,视效资产指视效元素的客观载体;所述视效事件指视效资产在剧情中展现的某种超常或极端状态。
3.根据权利要求2所述的对影视剧剧本进行视效内容分析的方法,其特征在于,所述的视效资产包括人物、非人生物、机械角色、道具和场景;其中人物为剧中的演员角色;非人生物包括真实存在的动物或并不真实存在的怪物;机械角色为由机械组成的非生命可活动体;道具指剧中角色使用的物品;场景指剧本中故事发生的特定场所。
4.根据权利要求1所述的对影视剧剧本进行视效内容分析的方法,其特征在于,所述的S21中,剧本分为若干集,每一集包括若干场,每一场的第一行交代集场号、内外景、时间、地点,从第二行开始是剧情内容;
所述的S21将各集各场的剧本内容,按场次先后顺序分解为与场次关联的一个个自然文本段落。
5.根据权利要求1所述的对影视剧剧本进行视效内容分析的方法,其特征在于,所述的S23中,除了采用视效内容识别分类模型来对词汇进行检测外,还包括针对具体剧本中的专属词汇采用人工指导辅助识别的步骤,具体为:使用触控笔对客户端展示的部分剧本中的专属词汇进行人工辅助标记,人工辅助标记的词汇在服务端会自动进行全剧本的搜索并做上相同的标记。
6.根据权利要求1所述的对影视剧剧本进行视效内容分析的方法,其特征在于,所述的S24中,视效资产表是对识别的视效内容的汇总,包括视效资产、类型、相关场次;
视效分场表是对每个场次涉及内容的汇总,包括集场号、日夜景、内外景、场景、视效内容、关联视效资产。
7.一种实施权利要求1-6任一项所述方法的对影视剧剧本进行视效内容分析的系统,其特征在于,包括:
便携式终端,其作为客户端具有可交互的显示界面用以显示剧本,并接受用户对剧本内容的标注;所述便携式终端用于将剧本按照集场次拆分成文本段落并上传到AI智能解析服务端,其获取AI智能解析服务端的视效内容识别结果,根据视效内容识别结果汇总出视效资产表和视效分场内容表;
AI智能解析服务端,用于获取便携式终端上传的文本段落,对文本段落进行分词,对分词后的词汇进行视效内容识别,将视效内容识别结果传输到便携式终端;
所述便携式终端与AI智能解析服务端之间采用无线通信进行通讯。
8.根据权利要求7所述的系统,其特征在于,所述的AI智能解析服务端包括:
通用文本分词模型,将文本段落进行分割成具有连续性的词汇;
视效内容识别分类模型,对通用文本分词模型分词后的词汇进行检测,识别视效资产和视效事件。
9.一种可读存储介质,其上存储有可执行程序,其特征在于,所述可执行程序被处理器执行时实现权利要求1至6中任意一项所述的对影视剧剧本进行视效内容分析的方法的步骤。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有可执行程序,其特征在于,所述处理器执行所述可执行程序时实现权利要求1至6中任意一项所述的对影视剧剧本进行视效内容分析的方法的步骤。
CN202211210817.2A 2022-09-30 2022-09-30 一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备 Pending CN115481254A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211210817.2A CN115481254A (zh) 2022-09-30 2022-09-30 一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211210817.2A CN115481254A (zh) 2022-09-30 2022-09-30 一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备

Publications (1)

Publication Number Publication Date
CN115481254A true CN115481254A (zh) 2022-12-16

Family

ID=84394781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211210817.2A Pending CN115481254A (zh) 2022-09-30 2022-09-30 一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备

Country Status (1)

Country Link
CN (1) CN115481254A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884393A (zh) * 2023-08-03 2023-10-13 北京中科深智科技有限公司 一种压弹式多级缓冲生成式ai通信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884393A (zh) * 2023-08-03 2023-10-13 北京中科深智科技有限公司 一种压弹式多级缓冲生成式ai通信方法

Similar Documents

Publication Publication Date Title
CN110020437B (zh) 一种视频和弹幕相结合的情感分析及可视化方法
CN110245259B (zh) 基于知识图谱的视频打标签方法及装置、计算机可读介质
CN111541910B (zh) 一种基于深度学习的视频弹幕评论自动生成方法及系统
KR102148392B1 (ko) 동영상 메타데이터 태깅 시스템 및 그 방법
US7921116B2 (en) Highly meaningful multimedia metadata creation and associations
CN111968649A (zh) 一种字幕纠正方法、字幕显示方法、装置、设备及介质
CN107968959B (zh) 一种教学视频的知识点分割方法
US20180130496A1 (en) Method and system for auto-generation of sketch notes-based visual summary of multimedia content
WO2023197979A1 (zh) 一种数据处理方法、装置、计算机设备及存储介质
WO2020136959A1 (ja) マンガ生成システムおよびマンガ生成方法
KR102490319B1 (ko) 인공지능 콘텐츠 자동 생성 및 변형 방법
CN110750996B (zh) 多媒体信息的生成方法、装置及可读存储介质
CN113395578A (zh) 一种提取视频主题文本的方法、装置、设备及存储介质
CN112084756A (zh) 会议文件生成方法、装置及电子设备
CN112784078A (zh) 一种基于语义识别的视频自动剪辑方法
CN114827752A (zh) 视频生成方法、视频生成系统、电子设备及存储介质
CN111914760B (zh) 一种在线课程视频资源构成的解析方法及系统
CN114938462B (zh) 授课视频的智能剪辑方法、系统、电子设备及存储介质
CN116702749A (zh) 多媒体内容分析方法、装置、设备及存储介质
CN113923521B (zh) 一种视频的脚本化方法
CN115481254A (zh) 一种对影视剧剧本进行视效内容分析的方法、系统、可读存储介质和设备
CN114281948A (zh) 一种纪要确定方法及其相关设备
CN111986259B (zh) 颜文字检测模型的训练、视频数据的审核方法及相关装置
CN113407766A (zh) 视觉动画显示方法及相关设备
Liu et al. MND: A New Dataset and Benchmark of Movie Scenes Classified by Their Narrative Function

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 310012 4th floor, unit 2, building 4, Fenghuang creative building, Lingfeng street, Xihu District, Hangzhou City, Zhejiang Province

Applicant after: Zhejiang Time Coordinate Technology Co.,Ltd.

Address before: 310012 4th floor, unit 2, building 4, Fenghuang creative building, Lingfeng street, Xihu District, Hangzhou City, Zhejiang Province

Applicant before: HANGZHOU TIMEAXIS FILM AND TELEVISION MEDIA CO.,LTD.

CB02 Change of applicant information