CN117316195A - 剧情视频文件的编辑方法、装置、电子设备及存储介质 - Google Patents
剧情视频文件的编辑方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117316195A CN117316195A CN202311235950.8A CN202311235950A CN117316195A CN 117316195 A CN117316195 A CN 117316195A CN 202311235950 A CN202311235950 A CN 202311235950A CN 117316195 A CN117316195 A CN 117316195A
- Authority
- CN
- China
- Prior art keywords
- scenario
- editing
- behavior sequence
- video
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 238000003860 storage Methods 0.000 title claims abstract description 22
- 230000014509 gene expression Effects 0.000 claims abstract description 105
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 230000006399 behavior Effects 0.000 claims description 381
- 230000004044 response Effects 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 17
- 230000009471 action Effects 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 10
- 238000011068 loading method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 28
- 238000005516 engineering process Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 9
- 230000008447 perception Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 230000016776 visual perception Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000001339 gustatory effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本申请提供了一种剧情视频文件的编辑方法、装置、电子设备及计算机可读存储介质;方法包括:显示视频编辑界面,视频编辑界面处于协同编辑模式,响应于针对第一编辑区域的第一表现行为序列的第一编辑操作,在第一编辑区域中显示编辑后得到的第二表现行为序列,第二表现行为序列用于配置剧情视频的视频画面;响应于针对第二编辑区域的第一逻辑行为序列的第二编辑操作,在第二编辑区域中显示编辑后得到的第二逻辑行为序列,第二逻辑行为序列用于配置剧情视频的播放参数,第二逻辑行为序列用于与第二表现行为序列合成剧情视频文件。通过本申请,能够提升编辑剧情视频文件的效率。
Description
技术领域
本申请涉及计算机技术,尤其涉及一种剧情视频文件的编辑方法、装置、电子设备及存储介质。
背景技术
相关技术的剧情视频文件(例如游戏剧情视频文件)的制作流程中,美术人员负责编辑剧情的表现部分,并在编辑完成之后,将剧情的表现部分的文件发送给策划人员,策划人员在剧情的表现部分的文件的基础上进行编辑,形成最终的剧情视频文件。
可见在相关技术中,剧情的表现和逻辑都是在一个文件中进行编辑、修改得到的,美术人员制作完表现(视频画面相关的素材)后,策划人员才可以去添加游戏逻辑。两者互相影响,互相等待,导致工作流程延长,降低了剧情视频文件的开发效率,并且编辑过程中还可能误操作到其他人编辑的部分,影响了编辑效率。
相关技术中,暂无较好的方式能够提升剧情视频文件的编辑效率。
发明内容
本申请实施例提供一种剧情视频文件的编辑方法、装置、电子设备及计算机可读存储介质、计算机程序产品,能够提升编辑剧情视频文件的效率,节约编辑过程所需的时间。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种剧情视频文件的编辑方法,所述方法包括:
显示视频编辑界面,其中,所述视频编辑界面处于协同编辑模式,所述视频编辑界面包括:第一编辑区域以及第二编辑区域;
响应于针对所述第一编辑区域的第一表现行为序列的第一编辑操作,在所述第一编辑区域中显示编辑后得到的第二表现行为序列,其中,所述第二表现行为序列用于配置剧情视频的视频画面;
响应于针对所述第二编辑区域的第一逻辑行为序列的第二编辑操作,在所述第二编辑区域中显示编辑后得到的第二逻辑行为序列,其中,所述第二逻辑行为序列用于配置所述剧情视频的播放参数,所述第二逻辑行为序列用于与所述第二表现行为序列合成剧情视频文件。
本申请实施例提供一种剧情视频文件的编辑装置,包括:
显示模块,用于显示视频编辑界面,其中,所述视频编辑界面处于协同编辑模式,所述视频编辑界面包括:第一编辑区域以及第二编辑区域;
第一编辑模块,用于响应于针对所述第一编辑区域的第一表现行为序列的第一编辑操作,在所述第一编辑区域中显示编辑后得到的第二表现行为序列,其中,所述第二表现行为序列用于配置剧情视频的视频画面;
第二编辑模块,用于响应于针对所述第二编辑区域的第一逻辑行为序列的第二编辑操作,在所述第二编辑区域中显示编辑后得到的第二逻辑行为序列,其中,所述第二逻辑行为序列用于配置所述剧情视频的播放参数,所述第二逻辑行为序列用于与所述第二表现行为序列合成剧情视频文件。
本申请实施例提供一种电子设备,所述电子设备包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令时,实现本申请实施例提供的剧情视频文件的编辑方法。
本申请实施例提供一种计算机可读存储介质,存储有计算机可执行指令,用于被处理器执行时,实现本申请实施例提供的剧情视频文件的编辑方法。
本申请实施例提供一种计算机程序产品,包括计算机程序或计算机可执行指令,述计算机程序或计算机可执行指令被处理器执行时,实现本申请实施例提供的剧情视频文件的编辑方法。
本申请实施例具有以下有益效果:
本申请实施例中,将逻辑行为序列与表现行为序列的分别对应的编辑区域区分开,同时每个编辑区域的画面同步显示,实现针对剧情视频文件的不同组成部分的协同编辑,相较于现有技术中全部表现行为序列编辑完成才能够编辑逻辑行为序列作业方式,有利于多人协作的分工合作,提升了剧情视频文件的编辑效率。逻辑行为序列与表现行为序列分别在对应的编辑区域中进行编辑,进而两种序列所形成的文件之间分离,相较于现有技术中不同序列保存在同一文件中的方案,能够进行文件复用,降低剧情视频文件的冗余度,节约剧情视频文件的存储空间,以及能够避免不同职能的人员错误编辑非职能范围内的文件,提升剧情视频文件的准确性。
附图说明
图1是本申请实施例提供的剧情视频文件的编辑方法的应用模式示意图;
图2是本申请实施例提供的电子设备的结构示意图;
图3A至图3D是本申请实施例提供的剧情视频文件的编辑方法的流程示意图;
图4是本申请实施例提供的剧情视频文件的编辑方法的交互流程示意图;
图5A是本申请实施例提供的视频编辑界面的示意图;
图5B是本申请实施例提供的视频编辑界面中第一编辑区域的示意图;
图5C是本申请实施例提供的视频编辑界面中第二编辑区域的示意图;
图5D是本申请实施例提供的视频编辑界面中参数查看区域的示意图;
图6是本申请实施例提供的视频画面的示意图;
图7是本申请实施例提供的剧情节点的示意图;
图8是本申请实施例提供的剧情节点组成的流程图;
图9A至图9B是本申请实施例提供的剧情视频文件的编辑方法的一个可选的流程示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
需要指出,本申请书中相关数据收集处理(例如:用户编辑的视频数据)在实例应用时应该严格根据相关国家法律法规的要求,获取个人信息主体的知情同意或单独同意,并在法律法规及个人信息主体的授权范围内,开展后续数据使用及处理行为。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)响应于,用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
2)剧情视频,例如:具有选项的互动视频、游戏虚拟场景的过场动画。
3)虚拟场景,利用设备输出的区别于现实世界的场景,通过裸眼或设备的辅助能够形成对虚拟场景的视觉感知,例如通过显示屏幕输出的二维影像,通过立体投影、虚拟现实和增强现实技术等立体显示技术来输出的三维影像;此外,还可以通过各种可能的硬件形成听觉感知、触觉感知、嗅觉感知和运动感知等各种模拟现实世界的感知。
4)虚拟对象,虚拟场景中进行交互的对象,受到用户或机器人程序(例如,基于人工智能的机器人程序)的控制,能够在虚拟场景中静止、移动以及进行各种行为的对象,例如游戏中的各种角色等。
5)JS对象简谱格式(JavaScript Object Notation,JSON),是一种轻量级的数据交换格式。它是欧洲计算机协会制定的js规范(European Computer ManufacturersAssociation,ECMAScript)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。简洁和清晰的层次结构使得JSON成为理想的数据交换语言。易于人阅读和编写,同时也易于机器解析和生成,并有效地提升网络传输效率。
6)预制体格式(prefab),一种资源文件的格式,以.prefab为后缀,用于表征时间编辑器制作的一段游戏剧情文件。预制体文件还可以用于保存单个虚拟物体的信息,用于在其他场景或其他工程中来使用这个虚拟物体。
7)时间编辑器,带有时间轴的编辑器,能线性时间地编辑虚拟对象、虚拟镜头的动画,编辑结果用于实现不同的游戏剧情。
8)行为序列(Action),每个行为序列表示虚拟场景中虚拟对象所执行的一个行为,也就是剧情中发生的一件事。例如:虚拟对象跳起来是一个行为,玩家控制虚拟对象接取一个任务也算一个行为。
9)协同编辑,是一种利用多种软件和技术来实现多个人协作编辑同一文件的技术,文件的类型包括:文档、视频文件、音频文件等。
本申请实施例提供一种剧情视频文件的编辑方法、剧情视频文件的编辑装置、电子设备和计算机可读存储介质及计算机程序产品,提升编辑剧情视频文件的效率,节约编辑过程所需的时间。
下面说明本申请实施例提供的电子设备的示例性应用,本申请实施例提供的电子设备可以实施终端设备,如笔记本电脑、平板电脑、台式计算机、机顶盒、智能电视、移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)、车载终端、虚拟现实(Virtual Reality,VR)设备、增强现实(Augmented Reality,AR)设备等各种类型的用户终端,也可以实施为服务器。下面,将说明电子设备实施为终端设备或服务器时示例性应用。
参考图1,图1是本申请实施例提供的剧情视频文件的编辑方法的应用模式示意图;示例的,图1中涉及服务器200、网络300及第一终端401、第二终端402、数据库500。第一终端401、第二终端402、服务器200之间通过网络300进行通信,或者通过其他方式进行通信,网络300可以是广域网或者局域网,又或者是二者的组合。
在一些实施例中,游戏制作人员根据职能分类包括美术人员以及策划人员,美术人员负责编辑游戏的美术表现,策划人员负责编辑游戏中每段美术表现视频之间的播放参数,第一终端401、第二终端402均运行视频编辑客户端,显示人机交互界面100中所呈现的画面。第一用户是美术人员,第二用户是策划人员。第一终端401由美术人员使用,第二终端402由策划人员使用。数据库500存储有大量的游戏虚拟场景数据,包括虚拟对象、虚拟物体的三维模型数据、二维图像数据等。服务器200可以是编辑器平台或者游戏平台的服务器。
示例的,第一终端401和第二终端402显示相同的画面,美术人员和策划人员协同编辑同一个游戏剧情文件。美术人员通过第一终端401向服务器200发送资源请求,获取数据库500中存储的游戏虚拟场景的数据,以在第一终端401的第一编辑区域101中编辑美术表现的表现行为序列,策划人员通过第二终端402在第二编辑区域102中编辑逻辑行为序列,例如:编辑剧情视频中的字幕。服务器200接收第一终端401和第二终端402发送的编辑操作,并将编辑结果同步到每个终端设备中,以使第一终端401和第二终端402的人机交互界面100中同步显示不同侧的编辑结果。美术人员以及策划人员能够同时进行工作,提升了编辑效率。
在一些实施例中,本申请实施例的剧情视频文件的编辑方法还可以应用在以下应用场景中:编辑互动视频,互动视频的视频素材可以是真实世界中拍摄的素材。
本申请实施例可以通过数据库技术实现,数据库(Database),简而言之可视为电子化的文件柜存储电子文件的处所,用户可以对文件中的数据进行新增、查询、更新、删除等操作。所谓“数据库”是以一定方式储存在一起、能与多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。
数据库管理系统(Database Management System,DBMS)是为管理数据库而设计的电脑软件系统,一般具有存储、截取、安全保障、备份等基础功能。数据库管理系统可以依据它所支持的数据库模型来作分类,例如关系式、XML(Extensible Markup Language,即可扩展标记语言);或依据所支持的计算机类型来作分类,例如服务器群集、移动电话;或依据所用查询语言来作分类,例如结构化查询语言(SQL,Structured Query Language)、XQuery;或依据性能冲量重点来作分类,例如最大规模、最高运行速度;亦或其他的分类方式。不论使用哪种分类方式,一些DBMS能够跨类别,例如,同时支持多种查询语言。
本申请实施例,还可以通过云技术实现,云技术(Cloud Technology)基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,以及搜索服务、社会网络、移动商务和开放协作等需求的推动,将来每个物品都有可能存在自己的哈希编码识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,服务器200可以是多个服务器构成的,例如:服务器200包括游戏服务器、编辑服务器。游戏服务器,用于运行虚拟场景以及存储虚拟场景相关的数据,编辑服务器,用于接收终端设备发送的编辑操作,形成对应的编辑结果,并将编辑结果发送至参与协同编辑的终端设备。
在一些实施例中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。电子设备可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
在一个实施场景中,本申请实施例提供的剧情视频文件的编辑方法应用于编辑游戏虚拟场景的视频文件,该游戏虚拟场景适用于一些完全依赖于终端设备的图形处理硬件计算能力即可完成虚拟场景的相关数据计算的应用模式,例如单机版/离线模式的游戏,通过智能手机、平板电脑和虚拟现实/增强现实设备等各种不同类型的终端设备完成虚拟场景的输出。
作为示例,图形处理硬件的类型包括中央处理器(CPU,Central ProcessingUnit)和图形处理器(GPU,Graphics Processing Unit)。
当形成虚拟场景的视觉感知时,终端设备通过图形计算硬件计算显示所需要的数据,并完成显示数据的加载、解析和渲染,在图形输出硬件输出能够对虚拟场景形成视觉感知的视频帧,例如,在智能手机的显示屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;此外,为了丰富感知效果,终端设备还可以借助不同的硬件来形成听觉感知、触觉感知、运动感知和味觉感知的一种或多种。
作为示例,终端设备上运行有客户端(例如单机版的游戏应用),在客户端的运行过程中输出包括有角色扮演的虚拟场景,虚拟场景可以是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;第一虚拟对象可以是受用户控制的游戏角色,即第一虚拟对象受控于真实用户,将响应于真实用户针对控制器(例如触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动,例如当真实用户向右移动摇杆时,第一虚拟对象将在虚拟场景中向右部移动,还可以保持原地静止、跳跃以及控制第一虚拟对象进行射击操作等。
在一些实施例中,终端设备和服务器协同实施游戏模式,主要涉及两种游戏模式,分别为本地游戏模式和云游戏模式,其中,本地游戏模式是指终端设备和服务器协同运行游戏处理逻辑,玩家在终端设备中输入的操作指令,部分由终端设备运行游戏逻辑处理,另一部分由服务器运行游戏逻辑处理,并且,服务器运行的游戏逻辑处理往往更复杂,需要消耗更多的算力;云游戏模式是指完全由服务器运行游戏逻辑处理,并由云端服务器将游戏场景数据渲染为音视频流,并通过网络传输至终端设备显示。终端设备只需要拥有基本的流媒体播放能力与获取玩家的操作指令并发送给服务器的能力。
以形成虚拟场景的视觉感知为例,服务器进行虚拟场景相关显示数据(例如场景数据)的计算并通过网络300发送到终端设备,终端设备依赖于图形计算硬件完成计算显示数据的加载、解析和渲染,依赖于图形输出硬件输出虚拟场景以形成视觉感知,例如可以在智能手机的显示屏幕呈现二维的视频帧,或者,在增强现实/虚拟现实眼镜的镜片上投射实现三维显示效果的视频帧;对于虚拟场景的形式的感知而言,可以理解,可以借助于终端设备的相应硬件输出,例如使用麦克风形成听觉感知,使用振动器形成触觉感知等等。
作为示例,终端设备上运行有客户端(例如网络版的游戏应用),在客户端的运行过程中输出包括有角色扮演的虚拟场景,虚拟场景可以是供游戏角色交互的环境,例如可以是用于供游戏角色进行对战的平原、街道、山谷等等;第一虚拟对象可以是受用户控制的游戏角色,即第一虚拟对象受控于真实用户,将响应于真实用户针对控制器(例如触控屏、声控开关、键盘、鼠标和摇杆等)的操作而在虚拟场景中运动,例如当真实用户向右移动摇杆时,第一虚拟对象将在虚拟场景中向右部移动,还可以保持原地静止、跳跃以及控制第一虚拟对象进行射击操作等。
示例的,虚拟场景可以是游戏虚拟场景,服务器可以是游戏平台的服务器,用户可以是玩家,第一虚拟对象是玩家控制的虚拟对象,第二虚拟对象是除了第一虚拟对象之外的处于伤害扩散区域中的虚拟对象,且第二虚拟对象可以是其他玩家或者人工智能控制的虚拟对象,以下结合上述举例进行说明。
参见图2,图2是本申请实施例提供的电子设备的结构示意图,图2所示的电子设备是终端设备400,终端设备400可以是图1中的第一终端401和第二终端402,终端设备400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。终端设备400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他电子设备,示例性的网络接口420包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
输入处理模块454,用于对一个或多个来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,终端或服务器可以通过运行计算机程序来实现本申请实施例提供的剧情视频文件的编辑方法。举例来说,计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(APP,Application),即需要在操作系统中安装才能运行的程序,如直播APP或者即时通信APP;也可以是小程序,即只需要下载到浏览器环境中就可以运行的程序;还可以是能够嵌入至任意APP中的小程序。总而言之,上述计算机程序可以是任意形式的应用程序、模块或插件。
以计算机程序为应用程序为例,在实际实施时,终端设备400安装和运行有支持虚拟场景的应用程序。该应用程序可以是第一人称射击游戏(FPS,First-Person Shootinggame)、第三人称射击游戏、虚拟现实应用程序、三维地图程序或者多人生存游戏中的任意一种。用户使用终端设备400操作位于虚拟场景中的虚拟对象进行活动,该活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、跳跃、驾驶、拾取、射击、攻击、投掷、建造虚拟建筑中的至少一种。示意性的,该虚拟对象可以是虚拟人物,比如仿真人物角色或动漫人物角色等。
在一些实施例中,本申请实施例提供的装置可以采用软件方式实现,图2示出了存储在存储器450中的剧情视频文件的编辑装置455,其可以是程序和插件等形式的软件,包括以下软件模块:显示模块4551、第一编辑模块4552、第二编辑模块4553,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。
将结合本申请实施例提供的终端的示例性应用和实施,说明本申请实施例提供的剧情视频文件的编辑方法。
下面,说明本申请实施例提供的剧情视频文件的编辑方法,如前,实现本申请实施例的剧情视频文件的编辑方法的电子设备可以是终端或者服务器,又或者是二者的结合。因此下文中不再重复说明各个步骤的执行主体。
需要说明的是,下文中的剧情视频文件的编辑处理的示例中,是以游戏视频文件的编辑处理为例说明的,本领域技术人员根据对下文的理解,可以将本申请实施例提供的剧情视频文件的编辑方法应用于包括其他类型对象的剧情视频编辑的处理。
参见图3A,图3A是本申请实施例提供的剧情视频文件的编辑方法的流程示意图,将结合图3A示出的步骤进行说明。
在步骤301中,显示视频编辑界面。
这里,视频编辑界面处于协同编辑模式,视频编辑界面包括:第一编辑区域以及第二编辑区域,第一编辑区域以及第二编辑区域分别由不同的终端设备进行编辑。
示例的,参考图5A,图5A是本申请实施例提供的视频编辑界面的示意图。视频编辑界面540包括第一编辑区域510、第二编辑区域520以及参数查看区域530。协同编辑模式下,不同的终端设备的视频编辑界面540中显示相同的画面。第一编辑区域用于编辑剧情视频的视频画面,也即表现行为序列,第一编辑区域的运行可以通过游戏引擎的时间轴编辑器(TimelineEditor)实现,或者虚幻引擎的等级序列(LevelSequence)编辑器。第二编辑区域用于编辑剧情视频的播放参数,用于配置剧情视频中每段表现行为序列的播放顺序。
在一些实施例中,第一编辑区域包括第一时间轴以及至少一条第一轨道,其中,每条第一轨道与第一时间轴匹配,表现行为序列在第一轨道中的区间表征表现行为序列在第一时间轴中对应的时间段。参考图5B,图5B是本申请实施例提供的视频编辑界面中第一编辑区域的示意图;第一编辑区域510包括时间轴511,第一编辑区域510中每个轨道中每个位置与时间轴511上每个时刻一一对应。时间轴512上已配置了表现行为序列1、表现行为序列2以及表现行为序列3。
示例的,轨道是放置素材(例如:表现行为序列以及逻辑行为序列)的容器,通过多个轨道的组合和对象在不同轨道不同时间段的设置,呈现不同的视觉效果。时间轴是视频对象的时间进度显示,用以控制某个时间点显示的画面内容。轨道与时间轴匹配是指轨道中每个位置与时间轴上的一个时刻具有一一对应关系,当轨道上配置了对应的素材时,且媒体文件播放到时间轴中素材对应的位置时,轨道中对应位置的素材被播放。例如:图像素材1在轨道中所处的位置对应时间轴上的00:01:00时刻,则媒体文件播放到1分钟时,显示图像素材1。
在一些实施例中,第二编辑区域包括第二时间轴以及至少一条第二轨道,其中,每个第二轨道与第二时间轴匹配,逻辑行为序列在第二轨道中的区间表征逻辑行为序列在第二时间轴中对应的时间段。
参考图5C,图5C是本申请实施例提供的视频编辑界面中第二编辑区域的示意图;第二编辑区域520包括剧情节点521、逻辑行为序列524、逻辑行为序列525以及逻辑行为序列522。每个逻辑行为序列位于轨道523上,第二轨道上每个位置与时间轴526上的一个时刻一一对应。Track1(2)和Track2(2)分别是两条不同的第二轨道。
在一些实施例中,在步骤302之前,执行以下处理:响应于针对第一编辑区域的新建序列操作,在第一轨道中显示新建的第一表现行为序列以及第一表现行为序列的文件名称,其中,第一表现行为序列用于在被加载时根据时间顺序显示所包含的视频画面。
示例的,新建序列操作得可以是导入外部序列文件的操作,或者,新建空序列的操作。第一表现行为序列的内容可以为空,或者是外部导入文件的内容。
示例的,在第一编辑区域中,第一表现行为序列在编辑完成时可以导出为后缀为“prefab”的预制体文件,预制体文件用于在游戏应用程序运行时被加载,以显示第一表现行为序列对应的视频画面。继续参考图5B,假设第一表现行为序列是表现行为序列1,文件名称为表现行为序列1.prefab,轨道512中显示表现行为序列对应的区间以及表现行为序列的名称“表现行为序列1”。第一表现行为序列在被游戏应用程序加载,或者视频播放器、编辑器加载时,显示所包括的视频画面。在实际应用中,由美术人员在终端设备中编辑第一编辑区域的表现行为序列。
继续参考图3A,在步骤302中,响应于针对第一编辑区域的第一表现行为序列的第一编辑操作,在第一编辑区域中显示编辑后得到的第二表现行为序列。
这里,第二表现行为序列用于配置剧情视频的视频画面。
示例的,第一编辑操作可以是单个的编辑操作,或者多个子编辑操作组成的。在第一编辑区域中显示编辑后得到的第二表现行为序列是第一编辑操作的编辑结果。参与编辑过程的每个终端设备中同步显示每个编辑操作的编辑结果。
在一些实施例中,第一编辑操作包括至少一个子编辑操作;参考图3B,图3B是本申请实施例提供的剧情视频文件的编辑方法的流程示意图。步骤302可以通过图3B的步骤3021至步骤3023实现,以下具体说明。
在步骤3021中,响应于针对第一编辑区域的第一表现行为序列的每个子编辑操作,在第一编辑区域中,同步显示每个子编辑操作针对第一表现行为序列的编辑结果。
示例的,每个参与编辑的终端设备的第一编辑区域均同步显示每个子编辑操作针对第一表现行为序列的编辑结果。例如:美术人员编辑第一编辑区域的内容、策划人员编辑第二编辑区域的内容,两者的人机交互界面中第一编辑区域的编辑结果的画面是相同的。
在步骤3022中,显示经过每个子编辑操作之后得到的第二表现行为序列。
示例的,第二表现行为序列包括每个子编辑操作对应的编辑结果。第二表现行为序列可以与第一表现行为序列存在以下至少一个差别:在轨道上的起始位置不同、在轨道上的结束位置不同、在轨道上所处的区间不同、视频画面的内容不同、视频画面的音频不同。
在步骤3023中,在第二表现行为序列显示第一表现行为序列的文件名称。
这里,第二表现行为序列与第一表现行为序列表征同一个文件的不同版本。
示例的,在编辑第一表现行为序列时,已经形成了该表现行为序列对应的文件,文件的名称维持不变。第二表现行为序列是在第一表现行为序列的基础上修改得到的,修改次数可以是多次,修改过程中不影响其他表现行为序列以及逻辑行为序列的编辑、剧情视频中视频画面顺序之间的编辑。编辑前的表现行为序列为第一表现行为序列,编辑后的表现行为序列为第二表现行为序列,例如:针对图5B中的表现行为序列1,若美术人员对表现行为序列1的内容进行了多次编辑,编辑得到的表现行为序列的文件名称仍然不变,编辑前后的文件内容存在差异,第二表现行为序列与第一表现行为序列属于同一个文件的不同版本。
本申请实施例中,通过在编辑过程中维持表现行为序列的名称不变,能够将文件名称作为调用文件的标识,使得针对美术表现的编辑行为不会影响到对剧情逻辑的编辑行为,分离了不同职能的人员的工作流程,提升了编辑效率。
继续参考图3A,在步骤303中,响应于针对第二编辑区域的第一逻辑行为序列的第二编辑操作,在第二编辑区域中显示编辑后得到的第二逻辑行为序列。
这里,第二逻辑行为序列用于配置剧情视频的播放参数,第二逻辑行为序列用于与第二表现行为序列合成剧情视频文件。
示例的,播放参数的类型包括以下至少一项:播放速度、画面尺寸、视频片段之间的播放顺序、字幕文本以及字幕格式、过渡效果。逻辑行为序列以及表现行为序列合成的剧情视频文件由每个类型的序列分别对应的文件组成。
示例的,继续参考图5C,以逻辑行为序列524为例进行说明,逻辑行为序列524的名称为“对话1”,编辑前的序列为第一逻辑行为序列,编辑后的序列为第二逻辑行为序列,此处“第一”、“第二”仅用于区分编辑前后的序列,编辑前后的逻辑行为序列524的名称均为“对话1”。第二编辑区域中的编辑结果,也同步至其他终端设备的视频编辑界面中。
在一些实施例中,参考图3C,图3C是本申请实施例提供的剧情视频文件的编辑方法的流程示意图。在图3A步骤303之前,执行图3C的步骤304至步骤305,以下具体说明。
在步骤304中,响应于针对第二编辑区域的新建节点操作,在第二编辑区域显示新建的至少一个剧情节点。
示例的,新建操作可以是鼠标右键单击。例如:响应于针对鼠标右键在第二编辑界面的单击操作,显示选项列表,响应于选项列表中的剧情节点新建选项(Create CutsceneNode)的点击操作,显示至少一个新剧情节点。剧情节点用于表征剧情视频文件中的一段子剧情视频,剧情视频文件由多段子剧情视频构成。
在步骤305中,响应于针对剧情节点的配置序列操作,在第二编辑区域中的第二轨道中显示经过配置序列操作得到的第一逻辑行为序列。
示例的,第二轨道与第二时间轴匹配,第一逻辑行为序列在第二轨道中的区间表征第一逻辑行为序列在剧情视频中对应的第一时间段,第一逻辑行为序列用于配置剧情视频的第一时间段内的播放参数,播放参数包括以下至少一项:播放速度、画面尺寸、视频片段之间的播放顺序、字幕文本以及字幕格式。
参考图5C,逻辑行为序列524在轨道523上所处的区间,表征时间轴对应的时间段内,播放逻辑行为序列524所包含的字幕文本,并以逻辑行为序列524携带的字幕格式进行播放。
在一些实施例中,在步骤305之后,执行以下处理:响应于针对任意一个表现行为序列的选取操作,将被选中的表现行为序列配置为剧情节点对应的绑定表现行为序列;在第一编辑区域的第三轨道中,显示剧情节点对应的绑定表现行为序列以及绑定表现行为序列的文件名称,其中,第三轨道与第一编辑区域的第一时间轴匹配,绑定表现行为序列在第三轨道中的区间用于表征绑定表现行为序列在剧情视频中对应的第二时间段。
示例的,剧情节点对应的绑定表现行为序列,是指剧情视频文件播放到该剧情节点时,所显示的视频画面对应的表现行为序列。
示例的,参考图5D,图5D是本申请实施例提供的视频编辑界面中参数查看区域的示意图;参数查看区域530中可以查看到图5C中的剧情节点521与文件名称为test的表现行为序列绑定(已设置的绑定序列531)。继续参考图5B,轨道513上的绑定表现行为序列514是已绑定至对应的剧情节点的表现行为序列。
本申请实施例中,通过在第一编辑区域呈现绑定表现行为序列在剧情视频中对应的第二时间段,便于策划人员了解对应的视频画面所处的时间段,能够提升策划人员的编辑效率。
在一些实施例中,针对剧情节点所配置的每个逻辑行为序列存储在对象简谱格式文件的不同的节点中,剧情节点的每个绑定表现行为序列分别存储在不同的预制体格式文件中。
示例的,当一个剧情节点具有多个绑定表现行为序列时,每个绑定表现行为序列存储在不同的预制体格式文件中。当一个剧情节点具有多个逻辑行为序列时,每个逻辑行为序列存储在同一个对象简谱格式文件的不同的节点。一个剧情视频文件的所有剧情节点的逻辑行为序列存储为同一个JS对象简谱格式文件中,文件后缀为.json。
在一些实施例中,在每个剧情节点中显示以下至少一项内容:
1、剧情节点的节点标识。例如:ID:3。
2、次序位于剧情节点之后的其他剧情节点的标识;
3、次序位于剧情节点之后的其他剧情节点的配置条件,其中,在剧情视频中,当满足对应的配置条件时,播放次序位于剧情节点之后的其他剧情节点的表现行为序列。例如:选择1:出口1,选择2:出口2。
4、剧情节点对应的逻辑行为序列的名称。
5、剧情节点对应的逻辑行为序列所包括的字幕文本。
参考图7,图7是本申请实施例提供的剧情节点的示意图。剧情节点701是编辑完成的剧情节点,剧情节点701中的数据包括:对话选项、节点描述、节点标识(ID:5)、剧情节点701的候选节点的名称。对话选项包括选择1、选择2、选择3。剧情节点701中,选择1对应default的剧情节点,选择2对应条件为选择出口1的剧情节点,选择3对应条件为选择出口2的剧情节点。在播放剧情视频的过程中,若玩家选择了选择2,则播放条件为选择出口2的剧情节点的表现行为序列的视频画面。
在一些实施例中,通过以下方式配置剧情节点之间的播放先后顺序:响应于针对多个剧情节点的配置顺序操作,在第二编辑区域中显示多个剧情节点构成的流程图。
示例的,流程图中每个剧情节点之间的连接顺序,用于表征每个剧情节点对应的绑定表现行为序列在剧情视频中的播放顺序。将结合附图解析解释,参考图8,图8是本申请实施例提供的剧情节点组成的流程图。
在一些实施例中,流程图中的多个剧情节点之间的连接关系用于连接至少一个第一剧情节点与至少一个第二剧情节点;连接关系连接至少一个第一剧情节点与至少一个第二剧情节点的方式包括:
方式1、将一个第一剧情节点连接至一个第二剧情节点,其中,第一剧情节点的绑定表现行为序列在第二剧情节点的绑定表现行为序列之前播放。参考图8,图8中剧情节点802连接至剧情节点803,二者之间一一连接。
方式2、将一个第一剧情节点连接至多个第二剧情节点,其中,第一剧情节点配置有每个第二剧情节点对应的配置条件,每个第二剧情节点对应的配置条件不同,每个第二剧情节点的绑定表现行为序列在对应的配置条件满足时播放。
剧情视频通常应用在互动视频或者游戏程序中,以游戏举例说明,参考图6,图6是本申请实施例提供的视频画面的示意图;游戏的视频画面601包括玩家控制的虚拟对象602,虚拟对象针对桌上的水杯,具有选项1“再喝一杯”、选项2(站起)。当玩家选择选项1时,虚拟对象端起水杯并喝水;当玩家选择选择2时,虚拟对象站起,并远离桌子。也即,视频画面601之后包括两种不同的剧情走向,分别对应两个不同的剧情节点。剧情节点803中配置有剧情节点804和剧情节点805分别对应的配置条件,参考图8,当玩家选择再喝一杯的选项,满足剧情节点804的配置条件,剧情节点803之后播放剧情节点804,当玩家选择站起的选项,满足剧情节点805的配置条件,剧情节点803之后播放剧情节点805。
方式3、将多个第一剧情节点连接至一个第二剧情节点,其中,任意一个第一剧情节点绑定表现行为序列在第二剧情节点绑定表现行为序列之前进行播放。继续参考图8,剧情节点804和剧情节点805之后均执行剧情节点806。
本申请实施例中,通过流程图的形式表征剧情节点之间的连接关系,相较于现有技术以轨道上的位置表征剧情之间的顺序的方式,更加直观,便于对连接关系进行编辑、调整,能够提升编辑效率。
在一些实施例中,参考图3D,图3D是本申请实施例提供的剧情视频文件的编辑方法的流程示意图;在步骤303之后,执行图3D的306至步骤307,以下具体说明。
在步骤306中,响应于针对视频编辑界面的导出操作,将第二编辑区域中的每个剧情节点存储为对象简谱格式文件。
示例的,导出操作是指针对视频编辑界面中的导出按键的点击操作。剧情节点所携带的数据包括:剧情节点对应的逻辑行为序列、剧情节点的绑定表现行为序列的文件名称、剧情节点与其他剧情节点之间的连接顺序。剧情节点与其他剧情节点之间的连接顺序包括剧情节点对应的后续播放的剧情节点,以及播放后续的剧情节点的配置条件。将第二编辑区域中的每个剧情节点存储为对象简谱格式文件可以通过以下方式实现:将剧情节点所携带的数据转换为json格式的代码,封装为对应的对象简谱格式文件,也即JS对象简谱文件。
在步骤307中,基于对象简谱格式文件、每个表现行为序列分别对应的文件,生成剧情视频文件。
示例的,根据对象简谱格式文件、每个表现行为序列分别对应的文件,能够得到每个表现行为序列、逻辑行为序列的播放先后顺序,根据时间轴、表现行为序列确定剧情视频文件中每个视频帧的视频画面,根据时间轴、逻辑行为序列确定剧情视频文件中每个视频帧的播放参数;基于每个视频帧的视频画面以及播放参数生成剧情视频文件。剧情视频文件由对象简谱格式文件以及每个表现行为序列分别对应的预制体文件构成。
在一些实施例中,在步骤307之后,执行以下处理:响应于针对剧情视频文件的加载操作,从剧情视频文件中的对象简谱格式文件读取得到每个剧情节点;根据每个剧情节点之间的先后顺序,播放每个剧情节点对应的表现行为序列,其中,剧情节点的绑定表现行为序列的视频画面是根据剧情节点对应的逻辑行为序列的播放参数进行播放的。
示例的,播放过程中,若播放到设置有配置条件的剧情节点对应的表现行为序列,当表现行为序列播放完毕且未满足任何一个配置条件时,停止播放,响应于配置条件满足,播放所满足的配置条件对应的剧情节点的表现行为序列。继续以图8为例进行说明,例如:播放到剧情节点803时,玩家未对任意一个选项进行选择,配置条件均不满足,则播放至剧情节点803的表现行为序列结束时,停止播放剧情视频文件。当玩家选择了其中一个选项,则播放选项对应的剧情节点的表现行为序列。
在一些实施例中,第一编辑区域由具有第一编辑区域的编辑权限的至少一个第一终端编辑,第二编辑区域由具有第二编辑区域的编辑权限的至少一个第二终端编辑;基于上述编辑权限,执行以下处理:
1、响应于针对第一终端的第二编辑区域的任意编辑操作,显示禁止编辑的提示信息。响应于针对第二终端的第一编辑区域的任意编辑操作,显示禁止编辑的提示信息。
示例的,第一编辑区域用于编辑表现行为序列,第二编辑区域用于编辑逻辑行为序列。假设,第一终端由美术人员使用,第二终端由策划人员使用。若策划人员使用第二终端对第一编辑区域执行任意编辑操作,显示对应的提示信息,表征禁止编辑,没有编辑权限。若美术人员使用第一终端对第二编辑区域执行任意编辑操作,显示对应的提示信息,表征禁止编辑,没有编辑权限。
本申请实施例中,通过设置编辑权限,避免了不同的岗位的编辑人员干扰对方工作,提升了协同编辑的效率。
2、响应于针对第二终端的第一编辑区域中的表现行为序列的预览操作,在视频编辑界面中显示预览操作选中的表现行为序列的视频画面。
示例的,继续基于上述举例进行说明,预览操作可以是点击、鼠标悬停等操作,例如:策划人员将鼠标图标悬停在在第二终端的第一编辑区域中的表现行为序列达到预设时长,在视频编辑界面中显示表现行为序列所对应的视频画面。通过预览表现行为序列的视频画面,策划人员可以便捷地了解到表现行为序列的内容,以便将表现行为序列关联到剧情节点,提升了编辑效率。策划人员通过预览表现行为序列,还能够及时发现表现行为序列对应的视频画面中需要修改的部分,实时调试剧情播放情况,帮助开发人员迅速定位剧情异常问题,提升了剧情视频文件的准确性,缩短了制作剧情视频文件所需的时长。
在一些实施例中,不同的剧情节点对应的绑定表现行为序列不同或者相同,当两个剧情节点对应的绑定表现行为序列相同时,两个剧情节点的播放时所加载的绑定表现行为序列的文件相同。
例如:根据策划人员预设的剧情视频文件对应的剧情大纲,剧情视频文件中存在虚拟对象的重复的多个动作A,每个动作A对应的视频画面均可以通过调用同一个表现行为序列A.prefab的预制体文件实现。剧情视频文件中仅需存储一份表现行为序列A.prefab的预制体文件,剧情视频文件的播放过程中,通过重复调用表现行为序列A.prefab的预制体文件而实现显示动作A对应的视频画面的效果。节约了剧情视频文件所需的存储空间。
参考图4,图4是本申请实施例提供的剧情视频文件的编辑方法的交互流程示意图。图4中基于图1中的终端设备和服务器进行解释说明。
在步骤S401中,第一终端401响应于针对第一编辑区域的第一表现行为序列的第一编辑操作,在第一编辑区域中显示编辑后得到的第二表现行为序列,发送第一编辑操作的第一编辑结果至服务200。
在步骤S402中,第二终端402响应于针对第二编辑区域的第一逻辑行为序列的第二编辑操作,在第二编辑区域中显示编辑后得到的第二逻辑行为序列,发送第二编辑操作的第二编辑结果至服务器200。
步骤S401和步骤S402之间不分先后顺序。步骤S401和步骤S402的原理可以参考上文中的步骤301至步骤303。
在步骤S403中,服务器200发送第二编辑操作的第二编辑结果到第一终端401。
在步骤S404中,服务器200发送第一编辑操作的第一编辑结果到第二终端402。
步骤S404和步骤S403之间不分先后顺序,步骤S403在步骤S402之后立刻执行,步骤S404在步骤S401之后立刻执行。步骤S401至步骤S404的原理可以参考上文图3A中的步骤,此处不再赘述。
本申请实施例中,通过服务器与不同的终端设备协同,实现了剧情视频文件的协同模式的编辑,提升了编辑效率。
本申请实施例中,将逻辑行为序列与表现行为序列的分别对应的编辑区域区分开,同时每个编辑区域的画面同步显示,实现针对剧情视频文件的不同组成部分的协同编辑,相较于现有技术中全部表现行为序列编辑完成才能够编辑逻辑行为序列作业方式,有利于多人协作的分工合作,提升了剧情视频文件的编辑效率;逻辑行为序列与表现行为序列分别对应的文件之间分离,相较于现有技术中不同序列保存在同一文件中的方案,能够避免不同职能的人员错误编辑非职能范围内的文件,提升剧情视频文件的准确性。能够使多段剧情的逻辑共用同一套表现,无需再为每段剧情都制作一份剧情表现,不仅提高了制作效率,还减少了冗余文件,节约了剧情视频文件所占用的存储空间。
下面,将说明本申请实施例剧情视频文件的编辑方法在一个实际的应用场景中的示例性应用。
目前游戏的剧情制作流程大致如下:
(1)美术人员用游戏引擎提供的时间轴编辑器(Timeline Editor)编辑剧情的表现部分,具体是在时间轴编辑器的时间轴的轨道中添加各种行为序列(Action),每个行为序列(上文的表现行为序列)表征虚拟对象的行为,行为序列在轨道上的区间表征行为序列对应的时间段,以实现游戏的表现部分。
(2)时间轴编辑器还支持用户自己新建逻辑行为序列,策划人员将新增的逻辑行为序列设置在时间轴的轨道上,来实现游戏的逻辑行为。例如:设置逻辑行为序列TimelineBlockClip,逻辑行为序列TimelineBlockClip用于表征剧情在该序列执行期间内,游戏画面播放速度变慢。
(3)策划人员以及美术人员均编辑完成之后,表现和逻辑部分会一同保存到剧情文件中,剧情文件以预制体格式(.prefab)存储。当游戏程序运行时,播放这段剧情,通过加载预制体格式文件进行播放,各段剧情的逻辑行为序列和表现行为序列,按照每个行为序列在时间轴上的开始时间和结束时间依次进行播放。
目前的剧情文件编辑过程中,剧情逻辑和剧情表现的编辑处理共用一个时间轴,使得剧情逻辑和表现的文件是先后编辑,并一同保存和使用的。
假如一个剧情视频文件包括多段剧情,每段剧情依次进行播放。相关技术中会用代码去控制一段剧情的预制体文件播放,播放结束之后再去加载另一段剧情的预制体文件进行播放,播放过程中每个文件是不能进行预览和编辑的。游戏的剧情视频文件编辑过程中,通常根据职能进行分工,美术人员负责编辑画面表现、策划人员负责编辑逻辑部分。相关技术的编辑方案,使得美术人员制作完表现后,策划人员才可以去添加游戏逻辑,限制了二者的工作进度。
游戏制作过程中,剧情可能会被反复修改,美术人员再次进行修改时,就不得不等待策划人员编辑好后再去编辑。两者互相影响、互相等待,工作流程延误,会极大地降低开发效率,而编辑过程中还可能误操作到其他人编辑的部分。相关技术的方案,虽然能够以可视化方式编辑游戏逻辑,但是在多段剧情之间进行跳转时,就无法以可视化的形式编辑,不能预览和调试,影响了编辑效率。
本申请实施例提供的剧情视频文件的编辑方法,通过设置不同的编辑区域,将剧情片段之间的顺序可视化,把游戏剧情区分为表现部分、逻辑部分,两者的编辑制作和播放都分开进行。本申请实施例提供的剧情视频文件的编辑方法相较于相关技术的编辑方式具有以下优点:
(1)表现部分由美术人员进行开发,逻辑由游戏策划人员进行开发,两者可以同时进行,互不影响,不仅有利于多人协作,提高工作效率,而且美术人员使用时间轴编辑器功能的编辑区域,策划人员使用流程编辑器功能的编辑区域,没有了误操作修改其他部分的可能。
(2)表现和逻辑分离编辑,支持不同的逻辑复用同一段剧情的表现,游戏剧情的复用率更高,不仅提高了工作效率,还减少了剧情文件的冗余,节约了游戏程序所需的存储空间。
(3)流程编辑器以节点图的形式来编辑多段剧情的跳转。比如播完一段主角的剧情后,需要立即切换虚拟摄像机播放另一端的怪物的剧情。流程编辑器可以用两个节点,表示两段剧情,并把它们连在一起。这样在运行时和编辑时,都能够以可视化形式编辑剧情片段之间的跳转关系,相关技术的编辑器不能可视化剧情与剧情之间的关系,相较于相关技术的编辑器,提升了编辑效率。
以下,将结合附图对本申请实施例提供的剧情视频文件的编辑方法进行解释说明,以终端设备以及服务器协同实现本申请实施例的方案为例,其中,服务器用于同步不同的终端设备的显示数据以及编辑的文件,图1的终端设备401、终端设备402作为执行主体进行说明。参考图9A,图9A是本申请实施例提供的剧情视频文件的编辑方法一个可选的流程示意图。
在步骤901A中,响应于编辑操作,显示编辑得到的表现行为序列。
示例的,步骤901A至步骤903A由美术人员所使用的终端设备401执行。终端设备401和终端设备402中所显示的画面是相同的。
参考图5A,图5A是本申请实施例提供的视频编辑界面的示意图。视频编辑界面540包括第一编辑区域510、第二编辑区域520以及参数查看区域530。美术人员所使用的终端设备401具有第一编辑区域510的编辑权限。策划人员所使用的终端设备402具有第二编辑区域520的编辑权限。
参考图5B,图5B是本申请实施例提供的视频编辑界面中第一编辑区域的示意图;第一编辑区域510包括时间轴511,第一编辑区域510中每个轨道中每个位置与时间轴511上每个时刻一一对应。轨道512上已编辑了表现行为序列1、表现行为序列2以及表现行为序列3。
假设:在时间轴编辑器(第一编辑区域)中,编辑一段游戏剧情表现(表现行为序列),编辑完成后,将表现行为序列导出为预制体格式的文件,名称为timeline.prefab。表现行为序列的文件可以在游戏程序运行时被加载,按时间轴运行所有的表现行为序列,可以展示一段游戏的过场动画。
在一些实施例中,剧情表现部分可以通过游戏引擎的时间轴编辑器(TimelineEditor)来制作,或虚幻引擎的等级序列(LevelSequence)编辑器。逻辑部分使用流程编辑器(FlowEditor)制作。
在步骤902A中,判断是否接收到针对表现行为序列的修改操作。
当步骤902A的判断结果为是时,回到步骤901A。
示例的,表现行为序列的文件导出之后,文件直接被加入游戏程序的素材库,文件名称不再进行更改。策划人员在编辑剧情逻辑时,可以通过文件名称调用表现行为序列。编辑表现的过程中,美术人员可以反复修改,只要最终导出的文件名不改,就不会影响游戏逻辑。因此,表现行为序列的编辑过程中,美术人员不会修改任何游戏逻辑行为,只负责剧情表现的行为序列。
当步骤902A的判断结果为否时,执行步骤903A,响应于导出操作,导出表现行为序列的预制体文件。
示例的,步骤903A所导出的表现行为序列的预制体文件,可以在步骤905A中被选取、调用。步骤903A之后,美术人员所使用的终端设备中结束流程。
在步骤904A中,响应于新建操作,显示剧情节点,响应于编辑操作,显示编辑得到的逻辑行为序列。
示例的,每一个剧情节点表示一段游戏剧情,每个剧情节点中的数据包括:逻辑行为序列、已绑定的表现行为序列的名称、剧情节点与其他剧情节点之间的顺序关系。新建的剧情节点的内容为空。
参考图5C,图5C是本申请实施例提供的视频编辑界面中第二编辑区域的示意图;第二编辑区域520包括剧情节点521、逻辑行为序列524、逻辑行为序列525以及逻辑行为序列522。每个逻辑行为序列位于第二轨道523上,第二轨道上每个位置与时间轴526上的一个时刻一一对应。剧情节点521是编辑完成的一个剧情节点。Track1(2)和Track2(2)分别是两条不同的第二轨道。
例如:策划人员可以通过鼠标右键点击流程编辑器对应的区域(第二编辑区域),响应于针对流程编辑器(第二编辑区域)的点击操作,显示选项列表,响应于针对创建剧情节点选项(Create Cutscene Node)的点击操作,显示新的剧情节点。策划人员还可以在流程编辑器中对逻辑行为序列进行编辑,逻辑行为序列用于配置播放参数,播放参数包括画面过渡效果、画面尺寸、播放速度、字幕、字幕格式等。
步骤904A和步骤901A可以是并行的。示例的,步骤904A至步骤908A由策划人员所使用的终端设备402执行。终端设备401、终端设备402将编辑过程中产生的数据发送至服务器200,服务器200将数据同步到不同的终端设备中,以使每个终端设备显示相同的画面。
在步骤905A中,响应于选取操作,将选中的表现行为序列、逻辑行为序列与剧情节点绑定。
示例的,策划人员在流程编辑器中为剧情节点绑定剧情表现部分。
例如:美术人员编辑完成的表现部分,导出为文件名称为test.prefab的文件。策划可直接引用美术编辑好的表现部分,将文件名称为test.prefab的表现行为序列绑定好后,参考图5D,图5D是本申请实施例提供的视频编辑界面中参数查看区域的示意图;参数查看区域530中可以查看到图5C中的剧情节点521与文件名称为test的表现行为序列绑定(已设置的绑定序列531)。
示例的,在剧情节点绑定了对应的表现行为序列之后,在第一编辑区域中可以查看到绑定后的表现行为序列在时间轴上的顺序。继续参考图5B,轨道513上的绑定表现行为序列514是已绑定至对应的剧情节点的表现行为序列。策划人员的终端设备没有针对第一编辑区域的编辑权限,美术人员的终端设备没有针对第二编辑区域的编辑权限。
示例的,参考图7,图7是本申请实施例提供的剧情节点的示意图。剧情节点701是编辑完成的剧情节点,剧情节点701中的数据包括:对话选项、节点描述、节点标识(ID:5)、剧情节点701的候选节点的名称。对话选项包括选择1、选择2、选择3。剧情节点701中,选择1对应default的剧情节点,选择2对应条件为选择出口1的剧情节点,选择3对应条件为选择出口2的剧情节点。在播放剧情视频的过程中,若玩家选择了选择2,则播放条件为选择出口2的剧情节点的表现行为序列的视频画面。
在步骤906A中,响应于导出操作,导出表现行为序列的预制体文件,将剧情节点导出至对应的文件中。
示例的,当剧情节点的编辑完成时,可以将剧情节点对应的数据导出为文件,剧情节点的逻辑行为序列保持在JS简谱对象格式文件中,表现行为序列存储在预制体格式文件中。
在步骤907A中,响应于顺序配置操作,显示节点之间的连接关系。
示例的,游戏剧情涉及到分支剧情,玩家进行了不同的选择,需要播放不同的游戏剧情。参考图6,图6是本申请实施例提供的视频画面的示意图;游戏的视频画面601包括玩家控制的虚拟对象602,虚拟对象针对桌上的水杯,具有选项1“再喝一杯”、选项2(站起)。当玩家选择选项1时,虚拟对象端起水杯并喝水;当玩家选择选择2时,虚拟对象站起,并远离桌子。
可知,“虚拟对象端起水杯并喝水”、“虚拟对象站起,并远离桌子”分别是不同的剧情视频片段,不同的剧情视频片段通过不同的剧情节点表征,可以通过以下方式实现图6所示的选项以及播放后续剧情视频:设置图6所示的视频画面对应的剧情节点与其他剧情片段的剧情节点之间的连接关系。
参考图8,图8是本申请实施例提供的剧情节点组成的流程图;第二编辑区域520中包括剧情节点802、剧情节点803、剧情节点804、剧情节点805、剧情节点806。剧情节点803是图6的视频画面对应的剧情节点。剧情节点803配置有选项再喝一杯、站起。设置剧情节点之间的顺序,使得剧情节点803分别连接至剧情节点804、剧情节点805。剧情节点804的执行条件是玩家选择再喝一杯。剧情节点805的执行条件是玩家选择站起。
在步骤908A中,响应于导出操作,导出每个剧情节点构成的文件。
示例的,继续参考图5C,第二编辑区域520包括导出选项,响应于针对导出选项的触发操作,将编辑完成的剧情节点之间构成的流程图(例如:图8中剧情节点构成的流程图)导出。所有的剧情节点数据存储到JS简谱对象格式的文件中。该文件存储了每个剧情节点绑定的剧情、逻辑行为序列、后续的剧情节点。以图8对应的流程图为例,剧情节点的文件的代码可以表征为以下内容:
"nodeRes":{
"ID":8,
"名称":"节点对话",
"坐标位置":{
"x":858.0,
"y":233.6667
},
"节点描述";null
},
"S类型":"EP流程节点对话",
"SID";"41"
}}],
"transName":[
"默认值",
"\u51fa\u53e31",
"\u51fa\u53e32"
],
"ignoredTrackActions":[],
"timelizeFzefab":"teat",
"destroyTimeline":ture
},
"nodeRes":{
"ID":5,
"名称":"剧情节点",
"坐标位置":{
"x":568.0,
"y":74.66669
},
"节点描述":null
},
其中,上述剧情节点的文件的代码中包含了标识为5的剧情节点,也即图8中的剧情节点803。
在步骤908A之后,结束流程。
示例的,经过图9A的流程,得到编辑完成的剧情视频文件,剧情视频文件由JS对象简谱文件以及预制体文件组成。JS对象简谱文件存储每个剧情节点之间的连接关系、剧情节点绑定的表现行为序列的预制体文件的名称。
在一些实施例中,策划编辑部分与美术编辑部分相互独立,没有先后编辑顺序,例如:美术人员先添加表现行为序列,策划后添加逻辑行为序列;策划先编辑每段剧情的逻辑行为序列,美术人员后添加表现行为序列。
在一些实施例中,编辑完成的剧情视频文件可以通过以下方式实现:读取JS对象简谱文件中的剧情节点,并基于剧情节点调用所绑定的预制体文件,显示预制体文件的视频画面,以播放剧情视频文件。
参考图9B,图9B是本申请实施例提供的剧情视频文件的编辑方法一个可选的流程示意图,图9B是游戏程序运行过程中播放剧情视频文件的具体过程,执行主体可以是任意终端设备。
在步骤901B中,加载流程图对象简谱文件。
示例的,流程图对象简谱文件也即剧情视频文件中的JS对象简谱文件。例如:流程图对象简谱文件的名称为flow.json,文件flow.json记录了每一个剧情节点的逻辑行为序列和每个剧情节点绑定的剧情表现部分对应的预制体文件、每个剧情节点的后续节点。
在步骤902B中,从流程图对象简谱文件读取每个剧情节点。
继续以上文举例为基础进行说明,游戏程序运行时首先加载文件flow.json,获取当前的第一个剧情节点的数据,并解析。
在步骤903B中,加载表现行为序列的预制体文件。
示例的,读取到当前剧情节点绑定的表现行为序列的预制体文件的名称,例如:timeline.prefab,开始加载表现行为序列的文件timeline.prefab。加载完成之后,根据表现行为序列的文件播放当前的剧情视频画面。
在步骤904B中,播放剧情视频。
步骤904B包括步骤9041B和步骤9042B,步骤9041B和步骤9042B并行执行。在步骤9041B中,播放表现行为序列的预制体文件。在步骤9042B中,播放剧情节点配置的逻辑行为序列。
示例的,表现行为序列的文件timeline.prefab的在时间轴中对应的时间段、剧情节点在时间轴中对应的时间段是一样长的,两者可以同时开始播放。表现行为序列的文件timeline.prefab可以是多个文件组成的,每个文件对应不同的表现行为序列以及不同的播放时间段。播放剧情视频的过程中,在当前时刻属于某一表现行为序列的播放时间段时,显示该表现行为序列的视频画面,同时地,在当前时刻属于逻辑行为序列的播放时间段时,根据逻辑行为序列所包含的播放参数控制对应的视频画面进行播放。播放参数的类型包括:字幕、字幕格式、播放速度、视频尺寸、画面过渡效果等。
例如:当时间播放到表现行为序列1的起始时间时,开始显示表现行为序列1对应的视频画面,比如播放某个人物的动作、给玩家控制的虚拟对象接取某个任务,同时地,播放逻辑行为序列1,根据逻辑行为序列所包括的字幕、字幕格式,在视频画面中显示虚拟对象对应的台词字幕。
示例的,若剧情中存在玩家需要进行选择的节点,可以将这个选择的选项封装为一个逻辑行为序列,设置到对应的剧情节点。播放剧情过程中,当运行到该选择的逻辑行为序列时,表现行为序列的文件timeline.prefab和剧情节点的时间轴都暂时停止播放,直到玩家选择后,记录所选的选项,并根据选项恢复播放处理。
在步骤905B中,播放剧情直至结束。
在步骤906B中,判断是否播放下一个剧情。在步骤906B的判断结果为是时,执行步骤902B,在步骤906B的判断结果为否时,结束流程。
示例的,继续基于上文举例进行说明,文件flow.json中记录了剧情节点的后续节点。在当前剧情节点对应的视频片段播放结束时,如果当前节点有后续节点,则继续读取剧情节点,再次执行步骤902B中剧情节点读取和后续的播放的流程。如果没有后续节点,说明剧情已经播放结束,结束流程。
示例的,每个剧情节点中仅记录表现行为序列的预制体文件的名称,通过记录名称的方式将预制体文件与剧情节点进行绑定。剧情节点中不存储预制体文件本身,因此,若存在多个剧情节点所对应的角色动作和镜头表现都相同且对话内容不同的情况,仅需将多个剧情节点均绑定至同一个预制体文件,并通过逻辑行为序列设置不同的对话内容,即可配置完成多个剧情节点,所导出的剧情视频文件中,仅需一个预制体文件就能够播放多个剧情节点对应的视频画面,实现了剧情表现的复用,无需制作多个预制体文件,节约了剧情视频文件所需的存储空间。
在本申请实施例中,游戏剧情的表现部分,仍然用相关技术的Unity引擎提供的剧情编辑器时间轴编辑器制作,但游戏剧情的逻辑部分(比如添加剧情UI字幕、为玩家接取一个人任务),使用带有时间轴的流编辑器(FlowEditor)进行编辑制作。在游戏运行时,时间轴编辑器制作的预制体文件、流程编辑器制作的流程文件同时运行,共同播放演绎一段游戏剧情。流程编辑器以流程图(也可以称为节点图)的形式,来编辑多段剧情之间的跳转关系。每一个节点就是表示一段剧情。本申请实施例将剧情文件的逻辑和表现分离编辑,有利于多人协作的分工合作,提高剧情制作效率。逻辑和表现分离编辑后,还可以使得多段剧情的逻辑共用同一套表现,无需再为每个剧情都制作一份剧情表现,不仅提高了制作效率,还减少了冗余文件。面对分支剧情,本申请实施例能够通过可视化方式编辑多段剧情之间的跳转关系(先后顺序),提高了剧情制作效率,还能运行时实时调试剧情播放情况,帮助开发人员迅速定位剧情异常问题,降低了游戏程序中的程序错误率。
下面继续说明本申请实施例提供的剧情视频文件的编辑装置455的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器450的剧情视频文件的编辑装置455中的软件模块可以包括:显示模块4551,用于显示视频编辑界面,其中,视频编辑界面处于协同编辑模式,视频编辑界面包括:第一编辑区域以及第二编辑区域;第一编辑模块4552,用于响应于针对第一编辑区域的第一表现行为序列的第一编辑操作,在第一编辑区域中显示编辑后得到的第二表现行为序列,其中,第二表现行为序列用于配置剧情视频的视频画面;第二编辑模块4553,用于响应于针对第二编辑区域的第一逻辑行为序列的第二编辑操作,在第二编辑区域中显示编辑后得到的第二逻辑行为序列,其中,第二逻辑行为序列用于配置剧情视频的播放参数,第二逻辑行为序列用于与第二表现行为序列合成剧情视频文件。
在一些实施例中,第一编辑区域包括第一时间轴以及至少一条第一轨道,其中,每条第一轨道与第一时间轴匹配,表现行为序列在第一轨道中的区间表征表现行为序列在第一时间轴中对应的时间段;第二编辑区域包括第二时间轴以及至少一条第二轨道,其中,每个第二轨道与第二时间轴匹配,逻辑行为序列在第二轨道中的区间表征逻辑行为序列在第二时间轴中对应的时间段。
在一些实施例中,第一编辑模块4552,用于在响应于针对第一编辑区域的第一表现行为序列的第一编辑操作,在第一编辑区域中显示编辑后得到的第二表现行为序列之前,响应于针对第一编辑区域的新建序列操作,在第一轨道中显示新建的第一表现行为序列以及第一表现行为序列的文件名称,其中,第一表现行为序列用于在被加载时根据时间顺序显示所包含的视频画面。
在一些实施例中,第一编辑操作包括至少一个子编辑操作;第一编辑模块4552,用于响应于针对第一编辑区域的第一表现行为序列的每个子编辑操作,在第一编辑区域中,同步显示每个子编辑操作针对第一表现行为序列的编辑结果;显示经过每个子编辑操作之后得到的第二表现行为序列,其中,第二表现行为序列包括每个子编辑操作对应的编辑结果;在第二表现行为序列显示第一表现行为序列的文件名称,其中,第二表现行为序列与第一表现行为序列表征同一个文件的不同版本。
在一些实施例中,第二编辑模块4553,用于在第二编辑区域中显示编辑后得到的第二逻辑行为序列之前,响应于针对第二编辑区域的新建节点操作,在第二编辑区域显示新建的至少一个剧情节点;响应于针对剧情节点的配置序列操作,在第二编辑区域中的第二轨道中显示经过配置序列操作得到的第一逻辑行为序列;其中,第二轨道与第二时间轴匹配,第一逻辑行为序列在第二轨道中的区间表征第一逻辑行为序列在剧情视频中对应的第一时间段,第一逻辑行为序列用于配置剧情视频的第一时间段内的播放参数,播放参数包括以下至少一项:播放速度、画面尺寸、视频片段之间的播放顺序、字幕文本以及字幕格式。
在一些实施例中,第二编辑模块4553,用于在第二编辑区域中的第二轨道中显示经过配置序列操作得到的第一逻辑行为序列之后,响应于针对任意一个表现行为序列的选取操作,将被选中的表现行为序列配置为剧情节点对应的绑定表现行为序列;在第一编辑区域的第三轨道中,显示剧情节点对应的绑定表现行为序列以及绑定表现行为序列的文件名称,其中,第三轨道与第一编辑区域的第一时间轴匹配,绑定表现行为序列在第三轨道中的区间用于表征绑定表现行为序列在剧情视频中对应的第二时间段。
在一些实施例中,针对剧情节点所配置的每个逻辑行为序列存储在对象简谱格式文件的不同的节点中,剧情节点的每个绑定表现行为序列分别存储在不同的预制体格式文件中。
在一些实施例中,第二编辑模块4553,用于响应于针对多个剧情节点的配置顺序操作,在第二编辑区域中显示多个剧情节点构成的流程图,其中,流程图中每个剧情节点之间的连接顺序,用于表征每个剧情节点对应的绑定表现行为序列在剧情视频中的播放顺序。
在一些实施例中,流程图中的多个剧情节点之间的连接关系用于连接至少一个第一剧情节点与至少一个第二剧情节点;连接关系连接至少一个第一剧情节点与至少一个第二剧情节点的方式包括:
将一个第一剧情节点连接至一个第二剧情节点,其中,第一剧情节点的绑定表现行为序列在第二剧情节点的绑定表现行为序列之前播放;将一个第一剧情节点连接至多个第二剧情节点,其中,第一剧情节点配置有每个第二剧情节点对应的配置条件,每个第二剧情节点对应的配置条件不同,每个第二剧情节点的绑定表现行为序列在对应的配置条件满足时播放;将多个第一剧情节点连接至一个第二剧情节点,其中,任意一个第一剧情节点绑定表现行为序列在第二剧情节点绑定表现行为序列之前进行播放。
在一些实施例中,第二编辑模块4553,用于在第二编辑区域中显示编辑后得到的第二逻辑行为序列之后,响应于针对视频编辑界面的导出操作,将第二编辑区域中的每个剧情节点存储为对象简谱格式文件,其中,剧情节点所携带的数据包括:剧情节点对应的逻辑行为序列、剧情节点的绑定表现行为序列的文件名称、剧情节点与其他剧情节点之间的连接顺序;基于对象简谱格式文件、每个表现行为序列分别对应的文件,生成剧情视频文件。
在一些实施例中,第二编辑模块4553,用于在基于对象简谱格式文件、每个表现行为序列分别对应的文件,生成剧情视频文件之后,响应于针对剧情视频文件的加载操作,从剧情视频文件中的对象简谱格式文件读取得到每个剧情节点;根据每个剧情节点之间的先后顺序,播放每个剧情节点对应的表现行为序列,其中,剧情节点的绑定表现行为序列的视频画面是根据剧情节点对应的逻辑行为序列的播放参数进行播放的。
在一些实施例中,第一编辑区域由具有第一编辑区域的编辑权限的至少一个第一终端编辑,第二编辑区域由具有第二编辑区域的编辑权限的至少一个第二终端编辑;第二编辑模块4553,用于响应于针对第一终端的第二编辑区域的任意编辑操作,显示禁止编辑的提示信息;第一编辑模块4553,用于响应于针对第二终端的第一编辑区域的任意编辑操作,显示禁止编辑的提示信息;第二编辑模块4553,用于响应于针对第二终端的第一编辑区域中的表现行为序列的预览操作,在视频编辑界面中显示预览操作选中的表现行为序列的视频画面。
在一些实施例中,不同的剧情节点对应的绑定表现行为序列不同或者相同,当两个剧情节点对应的绑定表现行为序列相同时,两个剧情节点的播放时所加载的绑定表现行为序列的文件相同。
在一些实施例中,第二编辑模块4553,用于在每个剧情节点中显示以下至少一项内容:
剧情节点的节点标识;次序位于剧情节点之后的其他剧情节点的标识;次序位于剧情节点之后的其他剧情节点的配置条件,其中,在剧情视频中,当满足对应的配置条件时,播放次序位于剧情节点之后的其他剧情节点的表现行为序列;剧情节点对应的逻辑行为序列的名称;剧情节点对应的逻辑行为序列所包括的字幕文本。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机程序或计算机可执行指令,该计算机程序或计算机可执行指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机可执行指令,处理器执行该计算机可执行指令,使得该电子设备执行本申请实施例上述的剧情视频文件的编辑方法。
本申请实施例提供一种存储有计算机可执行指令的计算机可读存储介质,其中存储有计算机可执行指令或者计算机程序,当计算机可执行指令或者计算机程序被处理器执行时,将引起处理器执行本申请实施例提供的剧情视频文件的编辑方法,例如,如图3A示出的剧情视频文件的编辑方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,计算机可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,计算机可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,HyperText Markup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个电子设备上执行,或者在位于一个地点的多个电子设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个电子设备上执行。
综上所述,通过将逻辑行为序列与表现行为序列的分别对应的编辑区域区分开,同时每个编辑区域的画面同步显示,实现针对剧情视频文件的不同组成部分的协同编辑,相较于现有技术中全部表现行为序列编辑完成才能够编辑逻辑行为序列作业方式,有利于多人协作的分工合作,提升了剧情视频文件的编辑效率;能够使多段剧情的逻辑共用同一套表现,无需再为每段剧情都制作一份剧情表现,不仅提高了制作效率,还减少了冗余文件,节约了剧情视频文件所占用的存储空间。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (18)
1.一种剧情视频文件的编辑方法,其特征在于,所述方法包括:
显示视频编辑界面,其中,所述视频编辑界面处于协同编辑模式,所述视频编辑界面包括:第一编辑区域以及第二编辑区域;
响应于针对所述第一编辑区域的第一表现行为序列的第一编辑操作,在所述第一编辑区域中显示编辑后得到的第二表现行为序列,其中,所述第二表现行为序列用于配置剧情视频的视频画面;
响应于针对所述第二编辑区域的第一逻辑行为序列的第二编辑操作,在所述第二编辑区域中显示编辑后得到的第二逻辑行为序列,其中,所述第二逻辑行为序列用于配置所述剧情视频的播放参数,所述第二逻辑行为序列用于与所述第二表现行为序列合成剧情视频文件。
2.根据权利要求1所述的方法,其特征在于,所述第一编辑区域包括第一时间轴以及至少一条第一轨道,其中,每条所述第一轨道与所述第一时间轴匹配,所述表现行为序列在第一轨道中的区间表征所述表现行为序列在所述第一时间轴中对应的时间段;
所述第二编辑区域包括第二时间轴以及至少一条第二轨道,其中,每个所述第二轨道与所述第二时间轴匹配,所述逻辑行为序列在第二轨道中的区间表征所述逻辑行为序列在所述第二时间轴中对应的时间段。
3.根据权利要求1所述的方法,其特征在于,在所述响应于针对所述第一编辑区域的第一表现行为序列的第一编辑操作,在所述第一编辑区域中显示编辑后得到的第二表现行为序列之前,所述方法还包括:
响应于针对所述第一编辑区域的新建序列操作,在所述第一轨道中显示新建的第一表现行为序列以及所述第一表现行为序列的文件名称,其中,所述第一表现行为序列用于在被加载时根据时间顺序显示所包含的视频画面。
4.根据权利要求3所述的方法,其特征在于,所述第一编辑操作包括至少一个子编辑操作;
所述响应于针对所述第一编辑区域的第一表现行为序列的第一编辑操作,在所述第一编辑区域中显示编辑后得到的第二表现行为序列,包括:
响应于针对所述第一编辑区域的第一表现行为序列的每个所述子编辑操作,在所述第一编辑区域中,同步显示每个所述子编辑操作针对所述第一表现行为序列的编辑结果;
显示经过每个所述子编辑操作之后得到的第二表现行为序列,其中,所述第二表现行为序列包括每个所述子编辑操作对应的所述编辑结果;
在所述第二表现行为序列显示所述第一表现行为序列的文件名称,其中,所述第二表现行为序列与所述第一表现行为序列表征同一个文件的不同版本。
5.根据权利要求1所述的方法,其特征在于,在所述第二编辑区域中显示编辑后得到的第二逻辑行为序列之前,所述方法还包括:
响应于针对所述第二编辑区域的新建节点操作,在所述第二编辑区域显示新建的至少一个剧情节点;
响应于针对所述剧情节点的配置序列操作,在所述第二编辑区域中的第二轨道中显示经过所述配置序列操作得到的第一逻辑行为序列;
其中,所述第二轨道与第二时间轴匹配,所述第一逻辑行为序列在所述第二轨道中的区间表征所述第一逻辑行为序列在所述剧情视频中对应的第一时间段,所述第一逻辑行为序列用于配置所述剧情视频的所述第一时间段内的播放参数,所述播放参数包括以下至少一项:播放速度、画面尺寸、视频片段之间的播放顺序、字幕文本以及字幕格式。
6.根据权利要求5所述的方法,其特征在于,在所述第二编辑区域中的第二轨道中显示经过所述配置序列操作得到的第一逻辑行为序列之后,所述方法还包括:
响应于针对任意一个所述表现行为序列的选取操作,将被选中的表现行为序列配置为所述剧情节点对应的绑定表现行为序列;
在所述第一编辑区域的第三轨道中,显示所述剧情节点对应的所述绑定表现行为序列以及所述绑定表现行为序列的文件名称,其中,所述第三轨道与所述第一编辑区域的第一时间轴匹配,所述绑定表现行为序列在所述第三轨道中的区间用于表征所述绑定表现行为序列在所述剧情视频中对应的第二时间段。
7.根据权利要求6所述的方法,其特征在于,针对所述剧情节点所配置的每个所述逻辑行为序列存储在对象简谱格式文件的不同的节点中,所述剧情节点的每个所述绑定表现行为序列分别存储在不同的预制体格式文件中。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
响应于针对多个所述剧情节点的配置顺序操作,在所述第二编辑区域中显示多个所述剧情节点构成的流程图,其中,所述流程图中每个所述剧情节点之间的连接顺序,用于表征每个所述剧情节点对应的绑定表现行为序列在所述剧情视频中的播放顺序。
9.根据权利要求8所述的方法,其特征在于,所述流程图中的多个所述剧情节点之间的连接关系用于连接至少一个第一剧情节点与至少一个第二剧情节点;
所述连接关系连接所述至少一个第一剧情节点与至少一个第二剧情节点的方式包括:
将一个所述第一剧情节点连接至一个所述第二剧情节点,其中,所述第一剧情节点的绑定表现行为序列在所述第二剧情节点的绑定表现行为序列之前播放;
将一个所述第一剧情节点连接至多个所述第二剧情节点,其中,所述第一剧情节点配置有每个所述第二剧情节点对应的配置条件,每个所述第二剧情节点对应的所述配置条件不同,每个所述第二剧情节点的绑定表现行为序列在对应的配置条件满足时播放;
将多个所述第一剧情节点连接至一个所述第二剧情节点,其中,任意一个所述第一剧情节点绑定表现行为序列在所述第二剧情节点绑定表现行为序列之前进行播放。
10.根据权利要求6至9任一项所述的方法,其特征在于,在所述第二编辑区域中显示编辑后得到的第二逻辑行为序列之后,所述方法还包括:
响应于针对所述视频编辑界面的导出操作,将所述第二编辑区域中的每个所述剧情节点存储为对象简谱格式文件,其中,所述剧情节点所携带的数据包括:所述剧情节点对应的逻辑行为序列、所述剧情节点的绑定表现行为序列的文件名称、所述剧情节点与其他剧情节点之间的连接顺序;
基于所述对象简谱格式文件、每个所述表现行为序列分别对应的文件,生成剧情视频文件。
11.根据权利要求10所述的方法,其特征在于,在所述基于所述对象简谱格式文件、每个所述表现行为序列分别对应的文件,生成剧情视频文件之后,所述方法还包括:
响应于针对所述剧情视频文件的加载操作,从所述剧情视频文件中的对象简谱格式文件读取得到每个所述剧情节点;
根据每个所述剧情节点之间的先后顺序,播放每个所述剧情节点对应的表现行为序列,其中,所述剧情节点的绑定表现行为序列的视频画面是根据所述剧情节点对应的逻辑行为序列的播放参数进行播放的。
12.根据权利要求1至9任一项所述的方法,其特征在于,所述第一编辑区域由具有所述第一编辑区域的编辑权限的至少一个第一终端编辑,所述第二编辑区域由具有所述第二编辑区域的编辑权限的至少一个第二终端编辑;所述方法还包括:
响应于针对所述第一终端的第二编辑区域的任意编辑操作,显示禁止编辑的提示信息;
响应于针对所述第二终端的第一编辑区域的任意编辑操作,显示禁止编辑的提示信息;
响应于针对所述第二终端的所述第一编辑区域中的表现行为序列的预览操作,在所述视频编辑界面中显示所述预览操作选中的表现行为序列的视频画面。
13.根据权利要求6至9任一项所述的方法,其特征在于,不同的剧情节点对应的绑定表现行为序列不同或者相同,当两个所述剧情节点对应的绑定表现行为序列相同时,两个所述剧情节点的播放时所加载的绑定表现行为序列的文件相同。
14.根据权利要求6至9任一项所述的方法,其特征在于,所述方法还包括:
在每个所述剧情节点中显示以下至少一项内容:
所述剧情节点的节点标识;
次序位于所述剧情节点之后的其他剧情节点的标识;
次序位于所述剧情节点之后的其他剧情节点的配置条件,其中,在所述剧情视频中,当满足对应的配置条件时,播放次序位于所述剧情节点之后的其他剧情节点的表现行为序列;
所述剧情节点对应的逻辑行为序列的名称;
所述剧情节点对应的逻辑行为序列所包括的字幕文本。
15.一种剧情视频文件的编辑装置,其特征在于,所述装置包括:
显示模块,用于显示视频编辑界面,其中,所述视频编辑界面处于协同编辑模式,所述视频编辑界面包括:第一编辑区域以及第二编辑区域;
第一编辑模块,用于响应于针对所述第一编辑区域的第一表现行为序列的第一编辑操作,在所述第一编辑区域中显示编辑后得到的第二表现行为序列,其中,所述第二表现行为序列用于配置剧情视频的视频画面;
第二编辑模块,用于响应于针对所述第二编辑区域的第一逻辑行为序列的第二编辑操作,在所述第二编辑区域中显示编辑后得到的第二逻辑行为序列,其中,所述第二逻辑行为序列用于配置所述剧情视频的播放参数,所述第二逻辑行为序列用于与所述第二表现行为序列合成剧情视频文件。
16.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令或者计算机程序时,实现权利要求1至14任一项所述的剧情视频文件的编辑方法。
17.一种计算机可读存储介质,存储有计算机可执行指令或者计算机程序,其特征在于,所述计算机可执行指令或者计算机程序被处理器执行时实现权利要求1至14任一项所述的剧情视频文件的编辑方法。
18.一种计算机程序产品,包括计算机可执行指令或计算机程序,其特征在于,所述计算机可执行指令或计算机程序被处理器执行时实现权利要求1至14任一项所述的剧情视频文件的编辑方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311235950.8A CN117316195A (zh) | 2023-09-22 | 2023-09-22 | 剧情视频文件的编辑方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311235950.8A CN117316195A (zh) | 2023-09-22 | 2023-09-22 | 剧情视频文件的编辑方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117316195A true CN117316195A (zh) | 2023-12-29 |
Family
ID=89273067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311235950.8A Pending CN117316195A (zh) | 2023-09-22 | 2023-09-22 | 剧情视频文件的编辑方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117316195A (zh) |
-
2023
- 2023-09-22 CN CN202311235950.8A patent/CN117316195A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10143924B2 (en) | Enhancing user experience by presenting past application usage | |
CN111294663B (zh) | 弹幕处理方法、装置、电子设备及计算机可读存储介质 | |
US10860345B2 (en) | System for user sentiment tracking | |
CN107050850A (zh) | 虚拟场景的录制和回放方法、装置以及回放系统 | |
US20150026573A1 (en) | Media Editing and Playing System and Method Thereof | |
WO2022057722A1 (zh) | 程序试用方法、系统、装置、设备及介质 | |
CN103258338A (zh) | 利用真实数据来驱动仿真的虚拟环境的方法和系统 | |
CN110507992B (zh) | 一种虚拟场景中的技术支持方法、装置、设备及存储介质 | |
CN105279222A (zh) | 一种媒体编辑和播放的方法及其系统 | |
US20210084388A1 (en) | Beat based editing | |
WO2022022174A1 (zh) | 虚拟场景的数据处理方法、装置、电子设备及存储介质 | |
US20240004529A1 (en) | Metaverse event sequencing | |
KR102316822B1 (ko) | 영상과 관련된 사용자 반응에 기반하여 컨텐츠를 제공하는 방법, 장치, 및 컴퓨터 프로그램 | |
US20230215090A1 (en) | Method and system for displaying virtual space at various point-in-times | |
CN116437153A (zh) | 虚拟模型的预览方法、装置、电子设备及存储介质 | |
US10191722B1 (en) | Event synchronization for development computing system | |
WO2022262560A1 (zh) | 图像显示方法、装置、设备及存储介质 | |
CN117316195A (zh) | 剧情视频文件的编辑方法、装置、电子设备及存储介质 | |
US20240334026A1 (en) | Video processing method and video processing system | |
KR102177283B1 (ko) | 대인 관계 개선을 위한 hci를 이용한 콘텐츠의 제작 및 편집을 지원하는 시스템 및 방법 | |
CN115065864B (zh) | 游戏视频制作方法、分享方法、装置、介质和电子设备 | |
Geigel et al. | Adapting a virtual world for theatrical performance | |
CN116600173A (zh) | 元宇宙直播间的虚拟资源的编辑方法、装置、设备及介质 | |
JP6078673B1 (ja) | 動画再生装置、動画再生方法、およびプログラム | |
CN116993868A (zh) | 动画生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |