CN116459516A - 分屏特效道具生成方法、装置、设备和介质 - Google Patents
分屏特效道具生成方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN116459516A CN116459516A CN202210030876.5A CN202210030876A CN116459516A CN 116459516 A CN116459516 A CN 116459516A CN 202210030876 A CN202210030876 A CN 202210030876A CN 116459516 A CN116459516 A CN 116459516A
- Authority
- CN
- China
- Prior art keywords
- special effect
- screen
- target
- split
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000694 effects Effects 0.000 title claims abstract description 557
- 238000000034 method Methods 0.000 title claims abstract description 72
- 239000000463 material Substances 0.000 claims abstract description 670
- 238000004519 manufacturing process Methods 0.000 claims abstract description 52
- 230000004044 response Effects 0.000 claims abstract description 19
- 238000009877 rendering Methods 0.000 claims description 237
- 239000013077 target material Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 19
- 230000006870 function Effects 0.000 description 17
- 210000001747 pupil Anatomy 0.000 description 14
- 210000001508 eye Anatomy 0.000 description 13
- 230000008676 import Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 210000000720 eyelash Anatomy 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000003796 beauty Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开涉及一种分屏特效道具生成方法、装置、设备和介质。该方法包括:在道具制作界面的素材操作区域中显示分屏模型;响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级;响应于第一素材加载操作,将公共特效素材加载至所述素材操作区域,并显示在所述分屏模型的下一显示层级;其中,所述公共特效素材与所述目标子屏模型在所述素材操作区域中的显示层级相同;基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具。根据本公开实施例,提高了分屏特效道具的制作效率,降低了分屏特效道具在制作和使用过程中对设备资源的消耗量,提高设备性能。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种分屏特效道具生成方法、装置、设备和介质。
背景技术
随着计算机技术的发展,出现了诸多基于增强现实的虚拟特效道具,如在同一个屏幕中展示多个子屏且每个子屏中的显示特效不同的分屏道具,以丰富人们制作的图像/视频的展示效果和趣味性。
目前的分屏道具主要是通过对每个子屏进行特效设置而生成,其存在道具制作流程复杂和制作难度大等道具制作问题,也因各子屏中的特效多且可能重复而存在分屏道具对设备资源消耗大等问题。
发明内容
为了解决上述技术问题,本公开提供了一种分屏特效道具生成方法、装置、设备和介质。
第一方面,本公开提供了一种分屏特效道具生成方法,该方法包括:
在道具制作界面的素材操作区域中显示分屏模型;
响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级;
响应于第一素材加载操作,将公共特效素材加载至所述素材操作区域,并显示在所述分屏模型的下一显示层级;其中,所述公共特效素材与所述目标子屏模型在所述素材操作区域中的显示层级相同;
基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具。
第二方面,本公开提供了一种分屏特效道具生成装置,该装置包括:
分屏模型显示模块,用于在道具制作界面的素材操作区域中显示分屏模型;
目标子屏模型确定模块,用于响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级;
第一素材加载模块,用于响应于第一素材加载操作,将公共特效素材加载至所述素材操作区域,并显示在所述分屏模型的下一显示层级;其中,所述公共特效素材与所述目标子屏模型在所述素材操作区域中的显示层级相同;
分屏特效道具生成模块,用于基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具。
第三方面,本公开提供了一种电子设备,该电子设备包括:
处理器;
存储器,用于存储可执行指令;
其中,处理器用于从存储器中读取可执行指令,并执行可执行指令以实现本公开任意实施例所说明的分屏特效道具生成方法。
第四方面,本公开提供了一种计算机可读存储介质,该存储介质存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现本公开任意实施例所说明的分屏特效道具生成方法。
本公开实施例的分屏特效道具生成方法、装置、设备和介质,在分屏特效道具的制作过程中,通过对道具制作界面的素材操作区域中显示的分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级,实现分屏模型中各子屏的高效且快捷地创建,一定程度上提高分屏特效道具的制作效率;通过响应于第一素材加载操作,将公共特效素材加载至所述素材操作区域,并显示在所述分屏模型的下一显示层级,使得所述公共特效素材与所述目标子屏模型在所述素材操作区域中的显示层级相同,实现了将各子屏共有的公共特效素材加载在分屏模型下方而非各目标子屏模型的下方,从而使得公共特效素材仅需添加并设置一遍即可,避免了在各子屏中重复多次地添加和设置公共特效素材而造成的分屏特效道具制作流程复杂和制作难度大的问题,提高了分屏特效道具的制作效率,也能减少分屏特效道具中的特效素材数量和后续渲染流程,从而降低分屏特效道具在制作和使用过程中对设备资源的消耗量,提高分屏特效道具的运行流畅程度和设备性能。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种分屏特效道具生成方法的流程示意图;
图2是本公开实施例提供的一种道具制作界面的显示示意图;
图3是本公开实施例提供的一种分屏特效道具中各特效素材之间的关联关系的示意图;
图4为本公开实施例提供的一种分屏特效道具生成装置的结构示意图;
图5为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
目前的分屏特效道具的生成方案主要是对屏幕进行分屏处理以创建至少两个子屏,然后针对每个子屏添加所需的特效素材。但是,该方案需要在每个子屏中独立设置相应子屏需要加载的特效素材。如果各子屏中存在相同的特效素材(如针对人脸的滤镜、美瞳等特效素材),那么需要在每个子屏中均加载并设置该相同的特效素材,这样就使得用户(制作特效道具的人员)制作分屏特效道具的过程比较繁复,降低了分屏特效素材的生成效率较低。并且,因为每个子屏下的特效素材均需进行独立地处理,就会使得上述相同的特效素材被重复多次地绘制和渲染,造成设备资源过多的消耗,降低设备性能。
基于上述情况,本公开实施例提供一种分屏特效道具生成方案,以实现在制作分屏特效道具的过程中,将各子屏中均需加载的相同的特效素材加载在子屏之外的分屏模型之下,使得该相同的特效素材与子屏处于相同的显示层级,从而使得该相同的特效素材仅需添加并设置一遍即可,提高了分屏特效道具的制作效率,同时也降低了分屏特效道具在制作和使用过程中对设备资源的消耗量,进而提高设备性能。
下面首先结合图1-3对本公开实施例提供的分屏特效道具生成方法进行说明。
在本公开实施例中,分屏特效道具生成方法适用于制作一个屏幕中存在多个子屏幕的分屏特效道具的情况。该方法可以由分屏特效道具生成装置来执行,该装置可以由软件和/或硬件的方式实现,该装置可以集成在能够安装特效道具制作软件的电子设备中。该电子设备可以包括但不限于诸如智能手机、平板电脑、笔记本电脑、台式计算机等。
图1示出了本公开实施例提供的一种分屏特效道具生成方法的流程示意图。如图1所示,该分屏特效道具生成方法可以包括如下步骤:
S110、在道具制作界面的素材操作区域中显示分屏模型。
其中,道具制作界面是制作特效道具的工具/应用程序所提供的交互界面。素材操作区域是道具制作界面中的一个区域,其用于提供交互操作功能并展示制作分屏特效道具所需的素材(即特效素材),如分屏模型、分屏模型中包含的至少两个子屏模型、滤镜素材、眼妆素材等等。分屏模型是预先设置的、将一个屏幕拆分为至少两个子屏幕的模型。子屏模型是拆分的子屏幕对应的模型,例如可以是预先设置的三维网格(mesh)模型。
具体地,在用户需要制作分屏特效道具时,其可以启动特效道具制作工具,如在电子设备中启动特效道具制作应用程序,其也可以是触发特效道具对应的制作推送信息,如点击特效道具对应的道具制作网页。这样,电子设备便可显示应用程序界面,即制作特效道具的道具制作界面。该道具制作界面中至少包含素材操作区域。如图2所示,电子设备中显示道具制作界面200,在道具制作界面200的左侧显示有素材操作区域210。
之后,电子设备响应于对道具制作界面的第三素材加载操作,将分屏模型加载至素材操作区域并显示。这里的第三素材加载操作是向素材操作区域中导入分屏模型的交互操作。用户可以通过道具制作界面中设置的素材加载功能相关的控件来执行第三素材加载操作。
在一些实施例中,用户可以先执行素材导入操作,以将制作分屏特效道具所需的各个特效素材导入道具制作工具。然后,再对导入的各特效素材中的分屏模型执行第三素材加载操作,以将分屏模型加载至素材操作区域。
继续参见图2,素材操作区域210中显示有“特效素材”和“资源管理”两个子区域,分别为素材编辑功能对应的区域和素材导入功能对应的区域。在“资源管理”子区域的右上角设置有素材导入功能控件,即导入文件控件211和导入文件夹控件212。用户可以点击导入文件控件211或导入文件夹控件212来执行素材导入操作。或者,在“资源管理”子区域中的某个位置处设置诸如“拖动素材到此处”的提醒消息,以提示用户可以直接将其想要导入的特效素材拖动至“资源管理”子区域,这样用户也可通过拖动素材的方式执行素材导入操作。电子设备检测到用户的素材导入操作后,接收素材导入操作中导入的分屏素材包(可包含分屏特效道具所需的各特效素材),并将其显示在素材操作区域210中的“资源管理”子区域中。
之后,为了便于可视化操作,电子设备可进一步检测用户的第三素材加载操作,并响应于该第三素材加载操作,将待加载的分屏模型由“资源管理”子区域加载到“特效素材”子区域。该第三素材加载操作可包含双击操作、右键点击操作或拖拽操作等。这样,电子设备可在“特效素材”子区域中显示“分屏模型”,该“分屏模型”中包含“上子屏模型”、“中子屏模型”和“下子屏模型”,即分屏模型中预先设置了屏幕可拆分的各子屏模型。
在另一些实施例中,素材操作区域为一个区域时,用户可通过上述素材导入操作直接将分屏模型加载至素材操作区域中并显示。
S120、响应于对分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将目标子屏模型显示在分屏模型的下一显示层级。
其中,目标子屏模型是用于制作分屏特效道具的子屏模型,其是分屏模型中包含的各子屏模型中的至少一部分。
具体地,分屏模型中包含多个子屏模型,用户可以根据需要对这些子屏模型中的至少一个执行触发操作,如单击、双击、勾选等选中操作。此时,电子屏幕可检测到上述触发操作,并将触发操作对应的子屏模型确定为目标子屏模型。然后,电子设备将目标子屏模型显示在素材操作区域中显示的分屏模型的下一层显示层级中。这样的显示方式便于用户直观地了解待制作的分屏特效道具中包含的子屏的数量及其与分屏模型之间的关系。
参见图2,素材操作区域210中的“分屏模型”的下一层显示层级中显示有“上子屏模型”、“中子屏模型”和“下子屏模型”。用户对其中的“上子屏模型”和“下子屏模型”对应的选框进行了勾选操作。电子设备便可检测到该勾选操作。这样,电子设备便可将“上子屏模型”和“下子屏模型”确定为目标子屏模型,并显示在“分屏模型”的下一显示层级。
需要说明的是,电子设备在确定并显示目标子屏模型的同时,可以建立分屏模型与目标子屏模型之间的关联关系,该关联关系中包含上述上下级的显示层级关系。例如,分屏模型与目标子屏模型之间的关联关系可实现为父子节点关系,上一显示层级的分屏模型为父节点,下一显示层级的目标子屏模型为子节点。
在一些实施例中,在S120之后,该分屏特效道具生成方法还包括:响应于对目标子屏模型的触发操作,在道具制作界面中显示目标子屏模型对应的参数设置区域;响应于对参数设置区域中显示的目标参数的参数设置操作,确定目标参数值,并基于目标参数值更新目标子屏模型。
其中,目标参数是目标子屏模型中可修改的参数,例如可以是位置、尺寸、旋转角度等。目标参数值是目标参数的值。
具体地,电子设备提供对目标子屏模型的参数设置功能,以便用户对目标子屏模型进行调整。参见图2,用户想要对“上子屏模型”进行设置时,其可以对其进行单击、双击等触发操作。电子设备检测到该触发操作后,便在道具制作界面200中显示的参数设置区域230中显示“上子屏模型”对应的目标参数,如“模型信息”、“参数信息”和“渲染信息”等参数设置模块,每个参数设置模型中均包含有一定的参数,这些参数中提供参数值修改功能的参数便为目标参数,如“参数信息”参数设置模块中的“位置”、“缩放”和“旋转”,“渲染信息”参数设置模块中的“模型”、“材质”、“阴影”等。若用户想要修改某一目标参数的值,便会对其进行参数值的输入、修改、删除、勾选等参数设置操作。所以,电子设备可对参数设置区域230进行检测。在其检测到上述参数设置操作后,便可根据参数设置操作来确定目标参数及其参数设置结果(即目标参数值)。之后,电子设备可根据目标参数值来更新目标子屏模型,使其显示符合用户需求,便捷地获得个性化的子屏模型,进而提高后续分屏特效道具的个性化程度。
S130、响应于第一素材加载操作,将公共特效素材加载至素材操作区域,并显示在分屏模型的下一显示层级。
其中,第一素材加载操作是向素材操作区域中的分屏模型的下一显示层级导入公共特效素材的交互操作。公共特效素材是指各目标子屏模型共享的特效素材,其是作用于每个目标子屏模型的特效素材,即各目标子屏模型中应当加载的相同的特效素材。
具体地,根据上述说明,相关技术中需要在每个目标子屏模型下加载多个特效素材,这些特效素材中存在公共特效素材,便会导致这些特效素材的重复处理,如加载、参数设置和渲染等,进而导致分屏特效道具的制作流程复杂且渲染耗费资源较多。基于此,本公开实施例将上述公共特效素材统一加载至分屏模型的下一显示层级,即将公共特效素材加载至目标子屏模型之外,而非目标子屏模型的下一显示层级,使得公共特效素材与目标子屏模型处于相同的显示层级。这样,无论公共特效素材在目标子屏模型之前渲染或之后渲染,其均可作用于每个目标子屏模型,相当于在每个目标子屏模型下加载了公共特效素材,但是仅需进行一次公共特效素材的加载和参数设置等素材处理操作,极大地减少了分屏特效道具制作过程中的操作步骤,从而降低分屏特效道具制作的复杂度和难度,进而提高分屏特效道具的制作效率。
具体实施时,用户可在素材操作区域中执行第一素材加载操作。例如,从图2所示的“资源管理”子区域中,通过拖拽特效素材或选中分屏模型并双击特效素材等操作,将某些特效素材直接加载至“特效素材”子区域中的“分屏模型”的下方。又如,直接将某些特效素材从道具制作界面的外部加载至素材操作区域中的分屏模型的下方。这样,电子设备便可检测到上述第一素材加载操作,并将上述加载的特效素材确定为公共特效素材,且将其显示在分屏模型的下一显示层级。
上述公共特效素材与目标子屏模型的显示先后顺序可不限定。例如,公共特效素材可以显示在目标子屏模型之前,也可以显示在目标子屏模型之后。具体而言,公共特效素材在素材操作区域中的显示位置可以是用户执行第一素材加载操作的结果,即用户将公共特效素材加载到分屏模型下的位置。公共特效素材的显示位置也可以是预先设置的加载位置。例如,预先设置了公共特效素材显示在目标子屏模型之前,那么电子设备检测到第一素材加载操作后,直接将公共特效素材显示在目标子屏模型之前。若公共特效素材的数量为多个,那么各公共特效素材之间的显示顺序可由用户调整确定。
需要说明的是,电子设备在加载公共特效素材后,同样可以建立公共特效素材与分屏模型、目标子屏模型之间的关联关系。例如,电子设备可继续完善上述建立的分屏模型与目标子屏模型之间的关联关系,即将公共特效素材添加至该关联关系中。例如,将公共特效素材作为分屏模型的子节点添加至关联关系中。而公共特效素材在关联关系中的位置可由其在素材操作区域中的显示位置来确定。
参见图2,第一素材加载操作对应的公共特效素材包括“眼妆”、“美瞳”、“睫毛”和“滤镜”,那么在“分屏模型”的下一显示层级中便显示有这些公共特效素材。并且,电子设备响应于第一素材加载操作,将“眼妆”显示在“上子屏模型”和“下子屏模型”之前,而将“美瞳”、“睫毛”和“滤镜”显示在“上子屏模型”和“下子屏模型”之后。
图2中还为每个特效素材设置了对应的勾选框,以便用户在第一素材加载操作之后,继续对特效素材进行二次操作。例如,用户在第一素材加载操作中加载了“眼妆”、“美瞳”、“睫毛”和“滤镜”共4个公共特效素材。之后,用户可通过其对应的勾选框的勾选与否的操作,将某些公共特效素材剔除。例如,用户未勾选“睫毛”特效素材,那么分屏特效道具中将不包含“睫毛”。
需要说明的是,电子设备可提供针对公共特效素材的参数设置功能。用户可对公共特效素材执行诸如单击、双击等触发操作。电子设备检测到该触发操作后,便在图2所示的参数设置区域230中显示被触发的公共特效素材对应的参数设置项。之后,用户可对参数设置项进行选择、删除、更改参数值等参数设置操作。电子设备响应于该参数设置操作,可实现被触发的公共特效素材的参数设置,并根据设置的参数值更新被触发的公共特效素材。
S140、基于分屏模型、公共特效素材和目标子屏模型,生成分屏特效道具。
具体地,电子设备经过上述各步骤后,可获得具有关联关系的分屏模型、公共特效素材和目标子屏模型,并且分屏模型、公共特效素材和目标子屏模型均具有其对应的参数信息。由于分屏特效道具需要渲染后显示,故电子设备获得上述信息后,还需要根据关联关系构建分屏模型、公共特效素材和目标子屏模型对应的渲染链路,以对后续生成的分屏特效道具进行渲染控制。之后,电子设备可按照分屏模型组合公共特效素材和目标子屏模型,得到分屏特效道具。
在一些实施例中,该分屏特效道具生成方法还包括:基于公共特效素材的第二素材类型和素材数量,确定分屏模型中的渲染相机组件的组件类型和组件数量,以更新分屏模型。
其中,第二素材类型是从二维和三维的角度划分的素材的类型,例如可以是二维素材类型、三维素材类型。
具体地,根据上述说明,公共特效素材加载在分屏模型的下一显示层级,而分屏模型中默认携带的信息是控制分屏模型的脚本组件,而没有相机组件,这样公共特效素材便无法渲染并显示。所以,电子设备在加载了公共特效素材之后,便为每个公共特效素材挂载相应的相机组件。
具体实施时,针对某个公共特效素材,电子设备根据该公共特效素材所携带的素材类型标识来确定该公共特效素材的第二素材类型。然后,根据该第二素材类型确定其对应渲染相机组件的组件类型。例如,第二素材类型为二维素材类型,那么组件类型为正交相机;第二素材类型为三维素材类型,那么组件类型为透视相机。之后,电子设备为该公共特效素材挂载一个该组件类型的渲染相机组件。
按照上述过程,电子设备可为每个公共特效素材挂载一个对应组件类型的渲染相机组件。这样,第二素材类型的公共特效素材的素材数量与该第二素材类型对应的组件类型的渲染相机组件的组件数量一致。将上述挂载的各渲染相机组件合并至分屏模型,便可更新分屏模型。这样,在制作分屏特效道具、应用分屏特效道具的过程中,便可实现各公共特效素材的渲染并显示特效渲染效果,达到与相关技术中分别设置各目标子屏模型下的特效素材相同的渲染和显示效果。
在一些实施例中,在S140之后,该分屏特效道具生成方法还包括:导出分屏特效道具,以对原始拍摄数据进行分屏特效配置。
具体地,用户制作完成分屏特效道具后,可利用电子设备提供的特效道具的导出功能,将制作完成的分屏特效道具导出为特效道具成品。这样,在用户进行特效拍摄或/特效合成的过程中,便可选择该特效道具成品来对图像/视频进行分屏特效配置。
本公开实施例提供的上述分屏特效道具生成方法,在分屏特效道具的制作过程中,通过对道具制作界面的素材操作区域中显示的分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将目标子屏模型显示在分屏模型的下一显示层级,实现分屏模型中各子屏的高效且快捷地创建,一定程度上提高分屏特效道具的制作效率;通过响应于第一素材加载操作,将公共特效素材加载至素材操作区域,并显示在分屏模型的下一显示层级,使得公共特效素材与目标子屏模型在素材操作区域中的显示层级相同,实现了将各子屏共有的公共特效素材加载在分屏模型下方而非各目标子屏模型的下方,从而使得公共特效素材仅需添加并设置一遍即可,避免了在各子屏中重复多次地添加和设置公共特效素材而造成的分屏特效道具制作流程复杂和制作难度大的问题,提高了分屏特效道具的制作效率,也能减少分屏特效道具中的特效素材数量和后续渲染流程,从而降低分屏特效道具在制作和使用过程中对设备资源的消耗量,提高分屏特效道具的运行流畅程度和设备性能。
在一些实施例中,在S120之后,该分屏特效道具生成方法还包括:响应于第二素材加载操作,将专有特效素材加载至素材操作区域,并显示在目标子屏模型的下一显示层级。
其中,第二素材加载操作是向素材操作区域中的目标子屏模型的下一显示层级导入专有特效素材的交互操作。专有特效素材是指专属于某个目标子屏模型的特效素材,其仅作用于该目标子屏模型。
具体地,电子设备在显示目标子屏模型之后,用户可对其进行特效素材的加载,即用户可在素材操作区域中执行第二素材加载操作。电子设备检测到第二素材加载操作后,将其操作的特效素材加载至目标子屏模型的下方,并将其确定为该目标子屏模型的专有特效素材,且显示在目标子屏模型的下一显示层级。这样可以实现目标子屏模型对应的专有特效素材的加载,丰富分屏特效道具中的特效效果。
在一示例中,该第二素材加载操作可以是从导入的特效素材中选择至少一个特效素材,并将其加载至目标子屏模型处。例如,用户从图2所示的“资源管理”子区域中,通过拖拽“人脸生成”特效素材或选中“下子屏模型”并双击“人脸生成”特效素材等操作,将“人脸生成”特效素材直接加载至“特效素材”子区域中的“下子屏模型”的下方。这里的“人脸生成”特效素材是对人脸叠加某种图像风格的特效素材,其可通过诸如Gan模型等风格化模型来实现。
在另一示例中,第二素材加载操作可以是通过“特效素材”子区域中设置的相关功能控件,直接将“2D画板”特效素材及其下属的“人脸贴纸”特效素材加载至素材操作区域中的“上子屏模型”的下方。
需要说明的是,电子设备在加载专有特效素材后,同样可以建立专有特效素材与目标子屏模型之间的关联关系。例如,电子设备可继续完善上述建立的分屏模型、公共素材模型与目标子屏模型之间的关联关系,即将专有特效素材添加至该关联关系中对应的目标子屏模型处。例如,将专有特效素材作为目标子屏模型的子节点添加至关联关系中。
经过上述各实施例的操作,可获得如图3所示的分屏特效道具中各特效素材之间的关联关系。该关联关系中,“分屏模型”处于最高显示层级,“眼妆”特效素材、“上子屏模型”、“下子屏模型”、“美瞳”特效素材和“滤镜”特效素材均处于中间显示层级,“2D画板-人脸贴纸”特效素材和“人脸生成”特效素材均处于最低显示层级。图3中的关联关系中各特效素材的显示层级和显示位置均与图2中的素材操作区域210中显示的各特效素材的显示层级和显示位置一致。
相应地,S140可实现为:基于分屏模型、公共特效素材、目标子屏模型和专有特效素材,生成分屏特效道具。即电子设备根据分屏模型及其下属的公共特效素材、目标子屏模型及其下属的专有特效素材、各模型的参数值、各特效素材的参数值和上述关联关系,生成分屏特效道具,以丰富分屏特效道具的特效效果。
在一些实施例中,对各特效素材的渲染和显示过程可实现为:基于公共特效素材的第一素材信息和专有特效素材的第二素材信息,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果;将目标渲染结果显示在道具制作界面的道具展示区域。
其中,素材信息包含第一素材类型和素材排列位置、或者素材排列位置。第一素材类型是从素材渲染效果的维度划分的素材类型,例如可以是限定渲染顺序的素材类型和不限定渲染顺序的素材类型。素材排列位置是指各特效素材在素材操作区域中的排列顺序的显示位置。例如,图2中的“眼妆”特效素材、“2D画板-人脸贴纸”、“人脸生成”特效素材、“美瞳”特效素材和“滤镜”特效素材的素材排列位置分别为1、2、3、4和5。目标渲染结果是对各特效素材均渲染完成所得的结果。道具展示区域用于显示导入的各种特效素材组合在一起的效果,以便用户更加直观地看到各目标子屏的渲染效果和分屏特效道具的整体渲染效果。
具体地,为了使得用户更加直观地看到分屏特效道具的制作效果,以及更加直观地、高效地进行特效素材的调整,本公开实施例中可在道具制作界面中设置道具展示区域,以对单个子屏的特效渲染结果和/或整个分屏的特效渲染结果进行展示。在此基础上,电子设备可以根据公共特效素材的第一素材信息和专有特效素材的第二素材信息,分别确定对公共特效素材进行渲染和对专有特效素材进行渲染的渲染先后顺序(即渲染链路)。然后,电子设备根据渲染链路执行对公共特效素材和专有特效素材的渲染操作,生成目标渲染结果,并将目标渲染结果显示在道具制作界面的道具展示区域。
在一示例中,上述生成目标渲染结果可实现为:根据第一素材信息中的素材排列位置和第二素材信息中的素材排列位置,分别确定公共特效素材的第一渲染顺序和专有特效素材的第二渲染顺序,并基于第一渲染顺序和第二渲染顺序生成渲染链路;基于渲染链路,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果。
具体地,该示例中的渲染链路与上述关联关系中的各特效素材(含公共特效素材和专有特效素材)的素材排列位置一致,即按照素材操作区域中显示的各特效素材的先后顺序进行渲染。所以,电子设备根据公共特效素材的第一素材信息中的素材排列位置确定出公共特效素材的第一渲染顺序,根据专有特效素材的第二素材信息中的素材排列位置确定出专有特效素材的第二渲染顺序。因为公共特效素材和专有特效素材之间可能存在交叉排列的情况,第一渲染顺序和第二渲染顺序之间也可能存在顺序交叉,即第一渲染顺序和第二渲染顺序可能并不连续。例如,对于图3所示的关联关系,可确定公共特效素材“眼妆”、“美瞳”和“滤镜”对应的第一渲染顺序分别为1、4和5,专有特效素材“人脸贴图”和“人脸生成”对应的第二渲染顺序分别为2和3。
然后,电子设备合并第一渲染顺序和第二渲染顺序,得到一个完整的渲染顺序,即得到渲染链路。之后,电子设备参照渲染链路,调用相关的渲染程序,分别对公共特效素材和专有特效素材进行渲染,得到目标渲染结果。这样所得的目标渲染结果可反映出素材操作区域中各素材的排列情况,从而为用户提供更加直观的特效素材的调整依据,进而提高后续用户对特效素材的调整效率。
例如,电子设备先对图2中的道具展示区域220中显示的特效效果对应的基础人脸图像(图2中以计算机合成的男性人脸示例)进行眼妆渲染,生成第一人脸图像。然后,电子设备分别对第一人脸图像进行人脸贴图和人脸生成(图2中以五官深邃风格的人脸生成示例)的渲染,生成上子屏模型对应的第二人脸图像和下子屏模型对应的第三人脸图像。之后,电子设备分别对第二人脸图像和第三人脸图像进行美瞳渲染和滤镜渲染,得到第四人脸图像和第五人脸图像,并将第四人脸图像和第五人脸图像作为目标渲染结果显示在道具展示区域220中。该示例中,电子设备总共进行了7次渲染操作。
在另一示例中,在确定专有特效素材的第一素材类型与预设素材类型匹配的情况下,上述生成目标渲染结果可实现为:基于第二素材信息中的素材排列位置,确定专有特效素材的第三渲染顺序,并基于第一素材信息中的素材排列位置,确定公共特效素材的第四渲染顺序;基于第三渲染顺序和第四渲染顺序,生成渲染链路;基于渲染链路,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果。
其中,预设素材类型是指预先设定的素材类型,其是限定渲染顺序的素材类型,例如可以是人脸生成特效素材等需要在其他特效素材渲染之前渲染的素材类型。
具体地,该示例中电子设备会先将专有特效素材的第一素材类型与预设素材类型进行匹配,以判断各专有特效素材中是否存在预设素材类型的特效素材。如果匹配结果是至少一个第一素材类型匹配成功,说明专有特效素材中存在需要优先渲染的特效素材。该情况下,为了确保后续特效渲染效果的逼真程度,本公开实施例中会将专有特效素材的渲染顺序排列在公共特效素材的渲染顺序之前。此时,电子设备先根据专有特效素材的第二素材信息中的素材排列位置确定出专有特效素材的第三渲染顺序,再根据公共特效素材的第一素材信息中的素材排列位置确定出公共特效素材的第四渲染顺序。根据前述说明,第三渲染顺序要优先于第四渲染顺序。然后,电子设备合并第三渲染顺序和第四渲染顺序,得到一个完整的渲染顺序,即得到渲染链路。
例如,对于图3所示的关联关系,专有特效素材“人脸贴图”和“人脸生成”的素材排列位置分别为2和3,公共特效素材“眼妆”、“美瞳”和“滤镜”的素材排列位置分别为1、4和5,那么按照上述过程,可确定“人脸贴图”和“人脸生成”对应的第三渲染顺序分别为1和2,“眼妆”、“美瞳”和“滤镜”对应的第四渲染顺序分别为3、4和5。这里的第三渲染顺序的1和2可顺序执行,也可以并行执行。
如果某一目标子屏模型下存在匹配预设素材类型的专有特效素材,且该目标子屏模型下的专有特效素材的数量为多个,那么该目标子屏模型对应的第三渲染顺序中预设素材类型对应的专有特效素材的渲染顺序居首位,该目标子屏模型对应的其他专有特效素材的渲染顺序则按照其素材排列位置确定。
如果存在多个目标子屏模型,因为每个目标子屏模型之间是相互独立的,故可以为每个目标子屏模型确定一个第三渲染顺序,再连接后续第四渲染顺序,为每个目标子屏模型均生成一个渲染链路。
之后,电子设备参照渲染链路,调用相关的渲染程序,分别对公共特效素材和专有特效素材进行渲染,得到目标渲染结果。这样所得的目标渲染结果具有更佳逼真的特效效果,且无需用户手动调整特效素材的排列顺序,进一步提高道具制作效率。
例如,预设素材类型是人脸生成的素材类型,那么电子设备可判断图2所示的下子屏模型中存在预设素材类型的专有特效素材。此时,电子设备按照渲染链路,先分别对基础人脸图像进行人脸贴图和人脸生成的渲染,生成上子屏模型对应的第六人脸图像和下子屏模型对应的第七人脸图像。之后,电子设备再分别对第六人脸图像和第七人脸图像先后进行眼妆、美瞳和滤镜的特效渲染,生成对应的第八人脸图像和第九人脸图像,并将第八人脸图像和第九人脸图像作为目标渲染结果显示在道具展示区域220中。该示例中,电子设备总共进行了8次渲染操作。
在又一示例中,在确定专有特效素材的第一素材类型与预设素材类型不匹配的情况下,上述生成目标渲染结果可实现为:基于第一素材信息中的素材排列位置,确定公共特效素材的第五渲染顺序,并基于第二素材信息中的素材排列位置,确定专有特效素材的第六渲染顺序;其中,第五渲染顺序优先于第六渲染顺序;基于第五渲染顺序和第六渲染顺序,生成渲染链路;基于渲染链路,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果。
具体地,根据上述说明,如果电子设备对专有特效素材进行匹配的结果是没有任一专有特效素材与预设素材类型匹配成功,说明专有特效素材中不存在需要优先渲染的特效素材。此时,电子设备可将公共特效素材的渲染顺序排列在专有特效素材的渲染顺序之前。因为利用公共特效素材先对基础图像进行渲染,可得到一个中间图像,后续针对各目标子屏的渲染便可以该中间图像为基础分别进行渲染,使得公共特效素材的渲染只需执行一遍即可,从而减少渲染次数、节省设备资源、提高设备性能。
具体实施时,电子设备先根据公共特效素材的第一素材信息中的素材排列位置确定出公共特效素材的第五渲染顺序,再根据专有特效素材的第二素材信息中的素材排列位置确定出专有特效素材的第六渲染顺序。根据前述说明,第五渲染顺序要优先于第六渲染顺序。然后,电子设备合并第五渲染顺序和第六渲染顺序,得到一个完整的渲染顺序,即得到渲染链路。
例如,对于图3所示的关联关系,专有特效素材“人脸贴图”和“人脸生成”的素材排列位置分别为2和3,公共特效素材“眼妆”、“美瞳”和“滤镜”的素材排列位置分别为1、4和5,那么按照上述过程,可确定公共特效素材“眼妆”、“美瞳”和“滤镜”对应的第五渲染顺序分别为1、2和3,专有特效素材“人脸贴图”和“人脸生成”对应的第六渲染顺序分别为4和5。这里的第六渲染顺序的4和5可顺序执行,也可以并行执行。
如果存在多个目标子屏模型,因为每个目标子屏模型之间是相互独立的,故可以为每个目标子屏模型确定一个第六渲染顺序,再连接后续第五渲染顺序,为每个目标子屏模型均生成一个渲染链路。
之后,电子设备参照渲染链路,调用相关的渲染程序,分别对公共特效素材和专有特效素材进行渲染,得到目标渲染结果。这样可减少渲染操作,提高渲染效率,节省设备性能,且无需用户手动调整特效素材的排列顺序,也可进一步提高道具制作效率。
例如,假设图2所示的下子屏模型中的“人脸生成”的特效素材为“唇妆”特效素材,那么专有特效素材中没有匹配预设素材类型的。此时,电子设备按照渲染链路,先对基础人脸图像进行眼妆、美瞳和滤镜的特效渲染,生成第十人脸图像。之后,电子设备再分别对第十人脸图像进行人脸贴图和唇部的渲染,生成上子屏模型对应的第十一人脸图像和下子屏模型对应的第十二人脸图像,并将第十一人脸图像和第十二人脸图像作为目标渲染结果显示在道具展示区域220中。该示例中,电子设备总共进行了5次渲染操作。
在一些实施例中,在S140之前,该分屏特效道具生成方法还包括:响应于素材移动操作,将目标特效素材移动至素材移动操作对应的目标位置,并基于目标位置确定移动后的目标特效素材对应的目标素材信息。
其中,素材移动操作是指对素材操作区域中已加载的特效素材执行的素材显示位置的变换操作,例如可以是将一个特效素材从一个显示位置拖动或点击移动至另一个显示位置的操作。目标特效素材为公共特效素材或专有特效素材。目标位置为分屏模型下属的素材位置或目标子屏模型下属的素材位置。
具体地,根据上述说明,用户在初次加载公共特效素材和专有特效素材之后,可能会对道具展示区域中显示的分屏特效效果不满意,此时用户可继续加载新的特效素材或删除已加载的特效素材,以丰富或简化特效效果。此外,用户也可以通过移动已加载的目标特效素材来调整特效效果。此时,电子设备可检测到用户执行的素材移动操作。然后,电子设备根据素材移动操作的操作对象(目标特效素材)和操作轨迹(初始位置到目标位置),将目标特效素材从初始位置处删除,并将其显示在目标位置。之后,为了后续仍然可以正常渲染与显示,电子设备可根据目标位置来重新确定目标特效素材的素材信息,并将重新确定的素材信息确定为目标素材信息。后续过程中,电子设备可根据目标素材信息来更新图3所示的关联关系和渲染链路,进而重新进行各特效素材的渲染与显示。
上述设置可根据特效素材的移动而自动修正目标特效素材对应的目标素材信息,以自动更新重新渲染所需的渲染链路,省去了相关技术中需要用户记忆各特效素材的显示层级并手动修改目标特效素材及其移动操作影响的其他特效素材的显示层级的过程,既能减少用户制作道具的步骤,进一步提高分屏特效道具的制作效率,又能降低分屏特效道具的制作难度,从而更进一步提高分屏特效道具的制作效率。
在一些实施例中,上述电子设备响应于素材移动操作后修正关联关系和渲染链路的过程具体实现为:建立移动后的目标特效素材与目标位置对应的目标模型之间的关联关系;基于目标模型对应的显示层级,确定移动后的目标特效素材对应的目标显示层级;基于目标显示层级确定移动后的目标特效素材为公共特效素材或专有特效素材,并基于目标位置确定移动后的目标特效素材对应的目标素材排列位置。
其中,目标模型为分屏模型或目标子屏模型。
具体地,电子设备先根据目标位置对应的目标模型来修改目标特效素材的关联关系。例如,将图2中的公共特效素材“滤镜”移动至“上子屏模型”的“人脸贴纸”的上方。那么,电子设备可将图3中的“滤镜”的关联关系由“分屏模型”的子节点修改为“分屏模型”的子节点“上子屏模型”的子节点。同时,为了确保后续渲染和显示,“上子屏模型”可增加“子屏透视相机”的相机组件。
然后,根据上述说明,渲染链路与目标特效素材是公共特效素材或专有特效素材、目标特效素材所在的素材排列位置均有关。所以,电子设备在修改目标特效素材的关联关系后,可根据目标模型所在的显示层级来确定移动后的目标特效素材的目标显示层级。即电子设备将目标模型对应的显示层级的下一显示层级确定为移动后的目标特效素材的修改后的显示层级,即目标显示层级。例如,上述“滤镜”特效素材的目标显示层级为最低显示层级。之后,电子设备可根据该目标显示层级识别出移动后的目标特效素材归属于公共特效素材或专有特效素材。并且,电子设备可将目标位置确定为移动后的目标特效素材对应的目标素材排列位置。例如,上述“滤镜”特效素材的目标位置是“上子屏模型”下的第一位置,那么可确定其目标素材排列位置为2。相应地,需要适应性修改其他未移动的特效素材的素材排列位置。
图4示出了本公开实施例提供的一种分屏特效道具生成装置的结构示意图。如图4所示,该分屏特效道具生成装置400可以包括:
分屏模型显示模块410,用于在道具制作界面的素材操作区域中显示分屏模型;
目标子屏模型确定模块420,用于响应于对分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将目标子屏模型显示在分屏模型的下一显示层级;
第一素材加载模块430,用于响应于第一素材加载操作,将公共特效素材加载至素材操作区域,并显示在分屏模型的下一显示层级;其中,公共特效素材与目标子屏模型在素材操作区域中的显示层级相同;
分屏特效道具生成模块440,用于基于分屏模型、公共特效素材和目标子屏模型,生成分屏特效道具。
本公开实施例提供的上述分屏特效道具生成装置,在分屏特效道具的制作过程中,通过对道具制作界面的素材操作区域中显示的分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将目标子屏模型显示在分屏模型的下一显示层级,实现分屏模型中各子屏的高效且快捷地创建,一定程度上提高分屏特效道具的制作效率;通过响应于第一素材加载操作,将公共特效素材加载至素材操作区域,并显示在分屏模型的下一显示层级,使得公共特效素材与目标子屏模型在素材操作区域中的显示层级相同,实现了将各子屏共有的公共特效素材加载在分屏模型下方而非各目标子屏模型的下方,从而使得公共特效素材仅需添加并设置一遍即可,避免了在各子屏中重复多次地添加和设置公共特效素材而造成的分屏特效道具制作流程复杂和制作难度大的问题,提高了分屏特效道具的制作效率,也能减少分屏特效道具中的特效素材数量和后续渲染流程,从而降低分屏特效道具在制作和使用过程中对设备资源的消耗量,提高分屏特效道具的运行流畅程度和设备性能。
在一些实施例中,分屏特效道具生成装置400还包括第二素材加载模块,用于:
在响应于对分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将目标子屏模型显示在分屏模型的下一显示层级之后,响应于第二素材加载操作,将专有特效素材加载至素材操作区域,并显示在目标子屏模型的下一显示层级;
相应地,分屏特效道具生成模块440具体用于:
基于分屏模型、公共特效素材、目标子屏模型和专有特效素材,生成分屏特效道具。
在一些实施例中,分屏特效道具生成装置400还包括渲染模块,该渲染模块包括:
目标渲染结果生成子模块,用于基于公共特效素材的第一素材信息和专有特效素材的第二素材信息,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果;其中,素材信息包含第一素材类型和素材排列位置、或者素材排列位置;
渲染结果显示子模块,用于将目标渲染结果显示在道具制作界面的道具展示区域。
在一示例中,目标渲染结果生成子模块具体用于:
根据第一素材信息中的素材排列位置和第二素材信息中的素材排列位置,分别确定公共特效素材的第一渲染顺序和专有特效素材的第二渲染顺序,并基于第一渲染顺序和第二渲染顺序生成渲染链路;其中,渲染链路用于记录各特效素材之间的渲染顺序;
基于渲染链路,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果。
在另一示例中,目标渲染结果生成子模块具体用于:
在确定专有特效素材的第一素材类型与预设素材类型匹配的情况下,基于第二素材信息中的素材排列位置,确定专有特效素材的第三渲染顺序,并基于第一素材信息中的素材排列位置,确定公共特效素材的第四渲染顺序;其中,第三渲染顺序优先于第四渲染顺序;
基于第三渲染顺序和第四渲染顺序,生成渲染链路;
基于渲染链路,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果。
在又一示例中,目标渲染结果生成子模块具体用于:
在确定专有特效素材的第一素材类型与预设素材类型不匹配的情况下,基于第一素材信息中的素材排列位置,确定公共特效素材的第五渲染顺序,并基于第二素材信息中的素材排列位置,确定专有特效素材的第六渲染顺序;其中,第五渲染顺序优先于第六渲染顺序;
基于第五渲染顺序和第六渲染顺序,生成渲染链路;
基于渲染链路,分别对公共特效素材和专有特效素材进行渲染,生成目标渲染结果。
在一些实施例中,分屏特效道具生成装置400还包括素材移动模块,用于:
在基于分屏模型、公共特效素材和目标子屏模型,生成分屏特效道具之前,响应于素材移动操作,将目标特效素材移动至素材移动操作对应的目标位置,并基于目标位置确定移动后的目标特效素材对应的目标素材信息;
其中,目标特效素材为公共特效素材或专有特效素材,目标位置为分屏模型下属的素材位置或目标子屏模型下属的素材位置。
进一步地,素材移动模块具体用于:
建立移动后的目标特效素材与目标位置对应的目标模型之间的关联关系;其中,目标模型为分屏模型或目标子屏模型;
基于目标模型对应的显示层级,确定移动后的目标特效素材对应的目标显示层级;
基于目标显示层级确定移动后的目标特效素材为公共特效素材或专有特效素材,并基于目标位置确定移动后的目标特效素材对应的目标素材排列位置。
在一些实施例中,分屏特效道具生成装置400还包括分屏模型更新模块,用于:
在基于分屏模型、公共特效素材和目标子屏模型,生成分屏特效道具之前,基于公共特效素材的第二素材类型和素材数量,确定分屏模型中的渲染相机组件的组件类型和组件数量,以更新分屏模型。
在一些实施例中,分屏特效道具生成装置400还包括目标子屏模型更新模块,用于:
在响应于对分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将目标子屏模型显示在分屏模型的下一显示层级之后,响应于对目标子屏模型的触发操作,在道具制作界面中显示目标子屏模型对应的参数设置区域;
响应于对参数设置区域中显示的目标参数的参数设置操作,确定目标参数值,并基于目标参数值更新目标子屏模型。
需要说明的是,图4所示的分屏特效道具生成装置400可以执行本公开任意实施例所说明的分屏特效道具生成方法中的各个步骤,并且实现上述任意实施例所说明的分屏特效道具生成方法中的各个过程和效果,在此不做赘述。
本公开实施例还提供了一种电子设备,该电子设备可以包括处理器和存储器,存储器可以用于存储可执行指令。其中,处理器可以用于从存储器中读取可执行指令,并执行可执行指令以实现上述实施例中的分屏特效道具生成方法。
图5示出了本公开实施例提供的一种电子设备的结构示意图。需要说明的是,图5示出的电子设备500仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,该电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有信息处理设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出接口(I/O接口)505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
本公开实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现本公开任意实施例中的分屏特效道具生成方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开任意实施例的分屏特效道具生成方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行本公开任意实施例所说明的分屏特效道具生成方法的步骤。
在本公开实施例中,可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的设备、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (13)
1.一种分屏特效道具生成方法,其特征在于,包括:
在道具制作界面的素材操作区域中显示分屏模型;
响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级;
响应于第一素材加载操作,将公共特效素材加载至所述素材操作区域,并显示在所述分屏模型的下一显示层级;其中,所述公共特效素材与所述目标子屏模型在所述素材操作区域中的显示层级相同;
基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具。
2.根据权利要求1所述的方法,其特征在于,在所述响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级之后,所述方法还包括:
响应于第二素材加载操作,将专有特效素材加载至所述素材操作区域,并显示在所述目标子屏模型的下一显示层级;
所述基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具包括:
基于所述分屏模型、所述公共特效素材、所述目标子屏模型和所述专有特效素材,生成所述分屏特效道具。
3.根据权利要求2所述的方法,其特征在于,在所述基于所述分屏模型、所述公共特效素材、所述目标子屏模型和所述专有特效素材,生成所述分屏特效道具之前,所述方法还包括:
基于所述公共特效素材的第一素材信息和所述专有特效素材的第二素材信息,分别对所述公共特效素材和所述专有特效素材进行渲染,生成目标渲染结果;其中,素材信息包含第一素材类型和素材排列位置、或者所述素材排列位置;
将所述目标渲染结果显示在所述道具制作界面的道具展示区域。
4.根据权利要求3所述的方法,其特征在于,所述基于所述公共特效素材的第一素材信息和所述专有特效素材的第二素材信息,分别对所述公共特效素材和所述专有特效素材进行渲染,生成目标渲染结果包括:
根据所述第一素材信息中的所述素材排列位置和所述第二素材信息中的所述素材排列位置,分别确定所述公共特效素材的第一渲染顺序和所述专有特效素材的第二渲染顺序,并基于所述第一渲染顺序和所述第二渲染顺序生成渲染链路;其中,所述渲染链路用于记录各特效素材之间的渲染顺序;
基于所述渲染链路,分别对所述公共特效素材和所述专有特效素材进行渲染,生成所述目标渲染结果。
5.根据权利要求3所述的方法,其特征在于,在确定所述专有特效素材的所述第一素材类型与预设素材类型匹配的情况下,所述基于所述公共特效素材的第一素材信息和所述专有特效素材的第二素材信息,分别对所述公共特效素材和所述专有特效素材进行渲染,生成目标渲染结果包括:
基于所述第二素材信息中的所述素材排列位置,确定所述专有特效素材的第三渲染顺序,并基于所述第一素材信息中的所述素材排列位置,确定所述公共特效素材的第四渲染顺序;其中,所述第三渲染顺序优先于所述第四渲染顺序;
基于所述第三渲染顺序和所述第四渲染顺序,生成渲染链路;
基于所述渲染链路,分别对所述公共特效素材和所述专有特效素材进行渲染,生成所述目标渲染结果。
6.根据权利要求3所述的方法,其特征在于,在确定所述专有特效素材的所述第一素材类型与预设素材类型不匹配的情况下,所述基于所述公共特效素材的第一素材信息和所述专有特效素材的第二素材信息,分别对所述公共特效素材和所述专有特效素材进行渲染,生成目标渲染结果包括:
基于所述第一素材信息中的所述素材排列位置,确定所述公共特效素材的第五渲染顺序,并基于所述第二素材信息中的所述素材排列位置,确定所述专有特效素材的第六渲染顺序;其中,所述第五渲染顺序优先于所述第六渲染顺序;
基于所述第五渲染顺序和所述第六渲染顺序,生成渲染链路;
基于所述渲染链路,分别对所述公共特效素材和所述专有特效素材进行渲染,生成所述目标渲染结果。
7.根据权利要求2至6任一项所述的方法,其特征在于,在所述基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具之前,所述方法还包括:
响应于素材移动操作,将目标特效素材移动至所述素材移动操作对应的目标位置,并基于所述目标位置确定移动后的目标特效素材对应的目标素材信息;
其中,所述目标特效素材为所述公共特效素材或所述专有特效素材,所述目标位置为所述分屏模型下属的素材位置或所述目标子屏模型下属的素材位置。
8.根据权利要求7所述的方法,其特征在于,所述基于所述目标位置确定移动后的目标特效素材对应的目标素材信息包括:
建立所述移动后的目标特效素材与所述目标位置对应的目标模型之间的关联关系;其中,所述目标模型为所述分屏模型或所述目标子屏模型;
基于所述目标模型对应的所述显示层级,确定所述移动后的目标特效素材对应的目标显示层级;
基于所述目标显示层级确定移动后的目标特效素材为所述公共特效素材或所述专有特效素材,并基于所述目标位置确定所述移动后的目标特效素材对应的目标素材排列位置。
9.根据权利要求1所述的方法,其特征在于,在所述基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具之前,所述方法还包括:
基于所述公共特效素材的第二素材类型和素材数量,确定所述分屏模型中的渲染相机组件的组件类型和组件数量,以更新所述分屏模型。
10.根据权利要求1所述的方法,其特征在于,在所述响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级之后,所述方法还包括:
响应于对所述目标子屏模型的触发操作,在所述道具制作界面中显示所述目标子屏模型对应的参数设置区域;
响应于对所述参数设置区域中显示的目标参数的参数设置操作,确定目标参数值,并基于所述目标参数值更新所述目标子屏模型。
11.一种分屏特效道具生成装置,其特征在于,包括:
分屏模型显示模块,用于在道具制作界面的素材操作区域中显示分屏模型;
目标子屏模型确定模块,用于响应于对所述分屏模型中包含的子屏的触发操作,确定目标子屏模型,并将所述目标子屏模型显示在所述分屏模型的下一显示层级;
第一素材加载模块,用于响应于第一素材加载操作,将公共特效素材加载至所述素材操作区域,并显示在所述分屏模型的下一显示层级;其中,所述公共特效素材与所述目标子屏模型在所述素材操作区域中的显示层级相同;
分屏特效道具生成模块,用于基于所述分屏模型、所述公共特效素材和所述目标子屏模型,生成分屏特效道具。
12.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储可执行指令;
其中,所述处理器用于从所述存储器中读取所述可执行指令,并执行所述可执行指令以实现上述权利要求1-10中任一项所述的分屏特效道具生成方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得处理器实现上述权利要求1-10中任一项所述的分屏特效道具生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210030876.5A CN116459516A (zh) | 2022-01-12 | 2022-01-12 | 分屏特效道具生成方法、装置、设备和介质 |
PCT/CN2023/070692 WO2023134537A1 (zh) | 2022-01-12 | 2023-01-05 | 分屏特效道具生成方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210030876.5A CN116459516A (zh) | 2022-01-12 | 2022-01-12 | 分屏特效道具生成方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116459516A true CN116459516A (zh) | 2023-07-21 |
Family
ID=87179393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210030876.5A Pending CN116459516A (zh) | 2022-01-12 | 2022-01-12 | 分屏特效道具生成方法、装置、设备和介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116459516A (zh) |
WO (1) | WO2023134537A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108259496B (zh) * | 2018-01-19 | 2021-06-04 | 北京市商汤科技开发有限公司 | 特效程序文件包的生成及特效生成方法与装置、电子设备 |
CN110442817A (zh) * | 2019-07-18 | 2019-11-12 | 塔普翊海(上海)智能科技有限公司 | 一种基于网页的混合现实的开发系统及制作方法 |
CN113497898B (zh) * | 2020-04-02 | 2023-04-07 | 抖音视界有限公司 | 视频特效配置文件生成方法、视频渲染方法及装置 |
CN113240777A (zh) * | 2021-04-25 | 2021-08-10 | 北京达佳互联信息技术有限公司 | 特效素材处理方法、装置、电子设备及存储介质 |
CN113190314B (zh) * | 2021-04-29 | 2023-08-18 | 北京有竹居网络技术有限公司 | 互动内容生成方法、装置、存储介质及电子设备 |
-
2022
- 2022-01-12 CN CN202210030876.5A patent/CN116459516A/zh active Pending
-
2023
- 2023-01-05 WO PCT/CN2023/070692 patent/WO2023134537A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023134537A1 (zh) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766777B (zh) | 虚拟形象的生成方法、装置、电子设备及存储介质 | |
CN108010112B (zh) | 动画处理方法、装置及存储介质 | |
WO2021008166A1 (zh) | 用于虚拟试衣的方法和装置 | |
TW202141300A (zh) | 頁面處理方法、裝置、設備及儲存媒體 | |
JP2024505995A (ja) | 特殊効果展示方法、装置、機器および媒体 | |
CN111414225B (zh) | 三维模型远程展示方法、第一终端、电子设备及存储介质 | |
CN110070496B (zh) | 图像特效的生成方法、装置和硬件装置 | |
WO2019114328A1 (zh) | 一种基于增强现实的视频处理方法及其装置 | |
CN114669047B (zh) | 一种图像处理方法、电子设备及存储介质 | |
CN112053370A (zh) | 基于增强现实的显示方法、设备及存储介质 | |
CN111833461A (zh) | 一种图像特效的实现方法、装置、电子设备及存储介质 | |
EP4319123A1 (en) | Image processing method, apparatus and device, storage medium, and computer program product | |
CN109033393B (zh) | 贴纸处理方法、装置、存储介质及电子设备 | |
CN111583379B (zh) | 虚拟模型的渲染方法、装置、存储介质与电子设备 | |
CN110288523B (zh) | 图像生成方法和装置 | |
CN114428573B (zh) | 特效图像处理方法、装置、电子设备及存储介质 | |
CN113419806B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110209861A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN110069641A (zh) | 图像处理方法、装置和电子设备 | |
CN116459516A (zh) | 分屏特效道具生成方法、装置、设备和介质 | |
CN115544311A (zh) | 数据分析方法以及装置 | |
CN108536510B (zh) | 基于人机交互应用程序的实现方法和装置 | |
US20230343038A1 (en) | Method and system for creating augmented reality filters on mobile devices | |
CN116578226A (zh) | 图像处理方法、装置、设备、存储介质和程序产品 | |
US10481791B2 (en) | Magnified input panels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |