CN114344894A - 场景元素处理方法、装置、设备和介质 - Google Patents

场景元素处理方法、装置、设备和介质 Download PDF

Info

Publication number
CN114344894A
CN114344894A CN202210267179.1A CN202210267179A CN114344894A CN 114344894 A CN114344894 A CN 114344894A CN 202210267179 A CN202210267179 A CN 202210267179A CN 114344894 A CN114344894 A CN 114344894A
Authority
CN
China
Prior art keywords
scene
target area
element density
mask image
distribution information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210267179.1A
Other languages
English (en)
Other versions
CN114344894B (zh
Inventor
朱植秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202210267179.1A priority Critical patent/CN114344894B/zh
Publication of CN114344894A publication Critical patent/CN114344894A/zh
Application granted granted Critical
Publication of CN114344894B publication Critical patent/CN114344894B/zh
Priority to PCT/CN2022/137148 priority patent/WO2023173828A1/zh
Priority to US18/238,413 priority patent/US20230401806A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

本申请涉及一种场景元素处理方法、装置、设备和介质,属于渲染技术领域。所述方法包括:展示虚拟场景中待进行场景元素渲染处理的目标区域;响应于针对目标区域的场景元素添加操作,获取目标区域对应的场景元素密度分布信息;场景元素密度分布信息,用于指示至少一个待生成的场景元素在目标区域中的分布情况;基于场景元素密度分布信息,确定目标区域中各候选位置对应的元素密度值;基于元素密度值从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。采用本方法能够提高渲染效果。

Description

场景元素处理方法、装置、设备和介质
技术领域
本申请涉及渲染技术领域,特别是涉及一种场景元素处理方法、装置、设备和介质。
背景技术
随着计算机技术的发展,出现了场景元素渲染技术,场景元素渲染技术是一种基于计算机自动在虚拟场景中渲染生成场景元素的技术。以游戏领域为例,通过场景元素渲染技术可生成游戏场景中的场景元素。比如,针对植物种植类的游戏,通过场景元素渲染技术可生成植物种植类游戏场景中的虚拟植物对象。
传统技术中,通常是通过单个或以单元格的形式生成场景元素,然而,通过单个或以单元格的形式生成的场景元素的分布单调重复,从而使得场景元素无法很好地融入虚拟场景,导致渲染效果比较差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高渲染效果的场景元素处理方法、装置、设备和介质。
第一方面,本申请提供了一种场景元素处理方法,所述方法包括:
展示虚拟场景中待进行场景元素渲染处理的目标区域;
响应于针对所述目标区域的场景元素添加操作,获取所述目标区域对应的场景元素密度分布信息;所述场景元素密度分布信息,用于指示至少一个待生成的场景元素在所述目标区域中的分布情况;
基于所述场景元素密度分布信息,确定所述目标区域中各候选位置对应的元素密度值;
基于所述元素密度值从各候选位置中确定元素生成位置,并在所述元素生成位置中渲染生成相应的场景元素。
第二方面,本申请提供了一种场景元素处理装置,所述装置包括:
展示模块,用于展示虚拟场景中待进行场景元素渲染处理的目标区域;
获取模块,用于响应于针对所述目标区域的场景元素添加操作,获取所述目标区域对应的场景元素密度分布信息;所述场景元素密度分布信息,用于指示至少一个待生成的场景元素在所述目标区域中的分布情况;
确定模块,用于基于所述场景元素密度分布信息,确定所述目标区域中各候选位置对应的元素密度值;
生成模块,用于基于所述元素密度值从各候选位置中确定元素生成位置,并在所述元素生成位置中渲染生成相应的场景元素。
在一个实施例中,所述目标区域上覆盖有掩膜图像;所述掩膜图像中像素点的像素值用于表征所述场景元素密度分布信息;所述场景元素添加操作包括像素值修改操作;所述像素值修改操作,用于修改所述掩膜图像中像素点的像素值;所述获取模块还用于响应于针对所述目标区域上覆盖的掩膜图像的像素值修改操作,对所述掩膜图像中像素点的像素值进行更新,得到所述目标区域对应的场景元素密度分布信息。
在一个实施例中,所述目标区域上覆盖有至少一张掩膜图像;所述目标区域支持渲染生成至少一种元素类型的场景元素;所述目标区域上覆盖掩膜图像的数量与所述目标区域支持的元素类型的数量相同;一张掩膜图像对应一种元素类型。
在一个实施例中,所述像素值修改操作通过控制虚拟工具在所述掩膜图像上移动来实现;所述获取模块还用于响应于控制所述虚拟工具在所述掩膜图像上移动的操作,确定所述虚拟工具在所述掩膜图像上的移动区域;所述移动区域是所述虚拟工具在所述掩膜图像上移动时所经过的区域;修改所述移动区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到所述目标区域对应的场景元素密度分布信息。
在一个实施例中,所述确定模块还用于获取第一元素密度值;所述第一元素密度值,是所述目标区域支持渲染的目标元素类型所对应的最大元素密度值;所述目标元素类型是待生成场景元素所属的元素类型;根据所述第一元素密度值和所述目标区域的大小,确定所述待生成的场景元素的目标数量;在所述目标区域中确定符合所述目标数量的候选位置。
在一个实施例中,所述目标区域上覆盖有掩膜图像;所述掩膜图像中像素点的像素值用于表征所述场景元素密度分布信息;所述确定模块还用于针对所述目标区域中的每一个候选位置,基于所述候选位置在所述掩膜图像中进行上采样,并将上采样得到的像素值作为所述候选位置对应的元素密度值。
在一个实施例中,所述确定模块还用于在所述掩膜图像中确定与所述候选位置具有映射关系的映射位置;在所述掩膜图像的各个像素点中确定与所述映射位置相邻的多个目标像素点;根据所述多个目标像素点分别对应的像素值,确定所述映射位置对应的像素值,以得到所述候选位置对应的元素密度值。
在一个实施例中,所述生成模块还用于基于各候选位置对应的元素密度值,分别确定各候选位置对应的元素生成概率;所述元素生成概率是指在所述各候选位置渲染生成场景元素的概率;根据所述各候选位置对应的元素生成概率,从所述各候选位置中确定元素生成位置。
在一个实施例中,所述生成模块还用于针对每一个候选位置,获取所述候选位置对应的第二元素密度值;所述第二元素密度值,是所述候选位置支持渲染生成所述场景元素的最大元素密度值;基于所述候选位置对应的元素密度值与所述第二元素密度值的比值,确定所述候选位置对应的元素生成概率。
在一个实施例中,所述生成模块还用于生成与所述目标区域对应的随机数;根据所述各候选位置对应的元素生成概率和所述随机数的大小关系,从所述各候选位置中确定元素生成位置。
在一个实施例中,所述目标区域对应的场景元素密度分布信息包括多个元素密度值;所述装置还包括:
同步模块,用于获取执行所述场景元素添加操作之前所述目标区域对应的初始场景元素密度分布信息;所述初始场景元素密度分布信息包括多个初始元素密度值;将所述场景元素密度分布信息中的各个元素密度值分别与各个所述初始元素密度值进行比对,以从所述场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值;将所述已更新的元素密度值同步至服务器。
在一个实施例中,所述虚拟场景为虚拟游戏场景;所述目标区域包括所述虚拟游戏场景中的虚拟地块;所述场景元素包括所述虚拟游戏场景中的虚拟植物;所述场景元素密度分布信息,用于指示至少一个待生成的虚拟植物在所述虚拟地块中的分布情况。
第三方面,本申请提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现本申请各方法实施例中的步骤。
第四方面,本申请提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现本申请各方法实施例中的步骤。
第五方面,本申请提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现本申请各方法实施例中的步骤。
上述场景元素处理方法、装置、设备和介质,通过展示虚拟场景中待进行场景元素渲染处理的目标区域,响应于针对目标区域的场景元素添加操作,可获取目标区域对应的场景元素密度分布信息,其中,场景元素密度分布信息,可用于指示至少一个待生成的场景元素在目标区域中的分布情况。基于场景元素密度分布信息,可确定目标区域中各候选位置对应的元素密度值,进而基于元素密度值可从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。相较于传统的通过单个或以单元格生成场景元素的方式,本申请的场景元素处理方法通过执行针对目标区域的场景元素添加操作,可个性化地对目标区域对应的场景元素密度分布信息进行更新,以提升目标区域中待生成的场景元素的元素密度值,进而可基于更新后的场景元素密度分布信息,从目标区域的各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。这样,通过修改目标区域中待生成的场景元素的元素密度值,可避免生成的场景元素呈现单调重复分布的情况,使场景元素可以更好地融入虚拟场景,从而能够提高渲染效果。
附图说明
图1为一个实施例中场景元素处理方法的应用环境图;
图2为一个实施例中场景元素处理方法的流程示意图;
图3为传统场景元素生成方法中,以单元格为单位生成场景元素的示意图;
图4为传统场景元素生成方法中,以单元格为单位生成场景元素的场景元素分布效果示意图;
图5为一个实施例中虚拟工具的描述界面示意图;
图6为一个实施例中通过控制虚拟工具移动确定得到的移动区域示意图;
图7为一个实施例中虚拟笔刷范围大小的调节界面示意图;
图8为一个实施例中通过范围大的虚拟笔刷确定得到的移动区域,以及通过范围小的虚拟笔刷确定得到的移动区域的示意图;
图9为一个实施例中掩膜图像的像素点中的各个候选位置示意图;
图10为一个实施例中各种元素类型的场景元素示意图;
图11为一个实施例中场景元素的渲染生成效果示意图;
图12为另一个实施例中场景元素处理方法的流程示意图;
图13为一个实施例中场景元素处理装置的结构框图;
图14为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的场景元素处理方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以集成在服务器104上,也可以放在云上或其他服务器上。其中,终端102可以但不限于是各种台式计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器104可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端102以及服务器104可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
终端102可展示虚拟场景中待进行场景元素渲染处理的目标区域。终端102可响应于针对目标区域的场景元素添加操作,获取目标区域对应的场景元素密度分布信息;场景元素密度分布信息,用于指示至少一个待生成的场景元素在目标区域中的分布情况。终端102可基于场景元素密度分布信息,确定目标区域中各候选位置对应的元素密度值。终端102可基于元素密度值从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。
可以理解,终端102可从服务器104获取虚拟场景中待进行场景元素渲染处理的目标区域的相关数据,进而,终端102可基于获取的相关数据展示虚拟场景中待进行场景元素渲染处理的目标区域。还可以理解,终端102在元素生成位置中渲染生成相应的场景元素之后,可将渲染生成的场景元素同步至服务器104。
在一个实施例中,如图2所示,提供了一种场景元素处理方法,该方法可应用于图1中的终端102,由终端102自身单独执行,也可以通过终端102和服务器104之间的交互来实现。本实施例以该方法应用于图1中的终端102为例进行说明,包括以下步骤:
步骤202,展示虚拟场景中待进行场景元素渲染处理的目标区域。
其中,虚拟场景是一种虚构的场景,可以理解,虚拟场景是一种非真实存在的场景,比如,游戏中的场景。场景元素是虚拟场景中的组成元素,比如,针对游戏中的场景,虚拟场景元素可以是游戏中的虚拟人物、虚拟动物、虚拟植物和虚拟道具等中的至少一种。场景元素渲染处理,是一种渲染生成场景元素的处理方式。目标区域,是虚拟场景中待进行场景元素渲染处理的区域,可以理解,虚拟场景中可包括至少一个区域,目标区域是虚拟场景的至少一个区域中将要进行场景元素渲染处理的区域。
在一个实施例中,虚拟场景可包括游戏中的场景、可视化设计和VR(VirtualReality,虚拟现实)等场景中的至少一种。
具体地,虚拟场景中可包括至少一个区域,终端可响应于针对区域的选择操作,从虚拟场景的至少一个区域中,确定待进行场景元素渲染处理的目标区域。进而,终端可展示虚拟场景中待进行场景元素渲染处理的目标区域。
步骤204,响应于针对目标区域的场景元素添加操作,获取目标区域对应的场景元素密度分布信息;场景元素密度分布信息,用于指示至少一个待生成的场景元素在目标区域中的分布情况。
其中,场景元素添加操作,是在目标区域中添加场景元素的操作。可以理解,在执行场景元素添加操作之前,目标区域中可以未渲染生成有相应的场景元素,也可以已经渲染生成有相应的场景元素。若在执行场景元素添加操作之前,目标区域中未渲染生成有相应的场景元素,则通过执行场景元素添加操作,可在目标区域中新添加相应的场景元素。若在执行场景元素添加操作之前,目标区域中已经渲染生成有相应的场景元素,则通过执行场景元素添加操作,可在目标区域中再继续添加相应的场景元素,使得目标区域中的场景元素的数量,多于执行场景元素添加操作之前目标区域中的场景元素的数量。场景元素密度分布信息包括多个元素密度值。元素密度值,是用于表征执行场景元素添加操作后的、且待生成的场景元素的密度值。密度值,是指单位面积上渲染生成场景元素的数量。
具体地,用户可在目标区域中执行场景元素添加操作,终端可响应于用户针对目标区域的场景元素添加操作,对执行场景元素添加操作之前目标区域对应的初始场景元素密度分布信息进行更新,得到更新后的目标区域对应的场景元素密度分布信息。
在一个实施例中,目标区域上覆盖有元素密度记录层。用户可对目标区域上覆盖的元素密度记录层执行场景元素添加操作,终端可响应于用户针对元素密度记录层的场景元素添加操作,获取目标区域对应的场景元素密度分布信息。其中,元素密度记录层,是用于记录目标区域对应的场景元素密度分布信息的信息记录层。
步骤206,基于场景元素密度分布信息,确定目标区域中各候选位置对应的元素密度值。
其中,候选位置,是目标区域中具有一定概率渲染生成相应的场景元素的位置。可以理解,场景元素仅可在目标区域的各候选位置上渲染生成,不会在目标区域中各候选位置之外的其他位置渲染生成。
具体地,场景元素密度分布信息可包括元素密度值。终端可基于场景元素密度分布信息中的元素密度值,确定目标区域中各候选位置对应的元素密度值。
在一个实施例中,目标区域上覆盖有元素密度记录层,元素密度记录层中记录有元素密度值。针对目标区域中的每一个候选位置,终端可基于候选位置在元素密度记录层中进行上采样,并基于上采样得到的元素密度值,确定候选位置对应的元素密度值。
上述实施例中,通过在目标区域上覆盖元素密度记录层,并基于目标区域中的每一个候选位置在元素密度记录层中进行上采样,可以快速、准确地确定目标区域中的每一个候选位置对应的元素密度值,提升了各个候选位置对应的元素密度值的获取效率和准确率。
在一个实施例中,终端可基于候选位置在元素密度记录层中进行上采样,并将上采样得到的元素密度值,直接作为候选位置对应的元素密度值。
步骤208,基于元素密度值从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。
其中,元素生成位置,是目标区域中用于渲染生成场景元素的位置。
具体地,目标区域的各候选位置中可能有一部分候选位置可渲染生成场景元素,有一部分不可渲染生成场景元素,可以理解,可渲染生成场景元素的候选位置即为元素生成位置。终端可基于目标区域中各候选位置对应的元素密度值,从各候选位置中确定可渲染生成场景元素的元素生成位置,并在元素生成位置中渲染生成相应的场景元素。
在一个实施例中,终端可将各候选位置对应的元素密度值与预设的元素密度阈值进行比对,并将元素密度值大于预设的元素密度阈值的候选位置,确定为元素生成位置。进而,终端可在元素生成位置中渲染生成相应的场景元素。
上述场景元素处理方法中,通过展示虚拟场景中待进行场景元素渲染处理的目标区域,响应于针对目标区域的场景元素添加操作,可获取目标区域对应的场景元素密度分布信息,其中,场景元素密度分布信息,可用于指示至少一个待生成的场景元素在目标区域中的分布情况。基于场景元素密度分布信息,可确定目标区域中各候选位置对应的元素密度值,进而基于元素密度值可从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。相较于传统的通过单个或以单元格生成场景元素的方式,本申请的场景元素处理方法通过执行针对目标区域的场景元素添加操作,可个性化地对目标区域对应的场景元素密度分布信息进行更新,以提升目标区域中待生成的场景元素的元素密度值,进而可基于更新后的场景元素密度分布信息,从目标区域的各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。这样,通过修改目标区域中待生成的场景元素的元素密度值,可避免出现方块感和边界感。同时,在目标区域中生成场景元素的疏密是可控的,可以提供场景元素之间更自然的过度,同时还可避免生成的场景元素呈现单调重复分布的情况,使场景元素可以更好地融入虚拟场景,从而能够提高渲染效果。
可以理解,传统的场景元素生成方式中,如图3所示,场景元素3a、3b、3c、3d和3e都是以单元格为单位生成的,每一个单元格中场景元素的元素密度值也是固定不变的,然而,通过以单元格为单位生成场景元素,会导致生成的场景元素的分布单调重复。如图4所示,以场景元素3b为例,在目标区域中渲染生成的场景元素呈现单调重复分布的情况,从而导致场景元素无法很好地融入虚拟场景。而本申请的场景元素处理方法通过执行针对目标区域的场景元素添加操作,可个性化地对目标区域对应的场景元素密度分布信息进行更新,基于更新后的场景元素密度分布信息,从目标区域的各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素,可避免生成的场景元素呈现单调重复分布的情况,使场景元素可以更好地融入虚拟场景,从而能够提高渲染效果。
在一个实施例中,目标区域上覆盖有掩膜图像;掩膜图像中像素点的像素值用于表征场景元素密度分布信息;场景元素添加操作包括像素值修改操作;像素值修改操作,用于修改掩膜图像中像素点的像素值;响应于针对目标区域的场景元素添加操作,获取目标区域对应的场景元素密度分布信息,包括:响应于针对目标区域上覆盖的掩膜图像的像素值修改操作,对掩膜图像中像素点的像素值进行更新,得到目标区域对应的场景元素密度分布信息。
其中,掩膜图像,是一种以贴图的方式存储像素值的图像,通过贴图的方式可对掩膜图像中各个像素点的像素值进行编辑。可以理解,上述元素密度记录层包括掩膜图像。场景元素密度分布信息包括多个元素密度值,掩膜图像中像素点的像素值用于表征场景元素密度分布信息,可以理解,掩膜图像中像素点的像素值与场景元素密度分布信息中的各个元素密度值具有映射关系,一个像素点的像素值对应一个元素密度值,可以理解,掩膜图像中像素点的像素值,可以用于表征待生成的场景元素的元素密度值。
具体地,用户可对目标区域上覆盖的掩膜图像执行像素值修改操作,终端可响应于用户针对目标区域上覆盖的掩膜图像的像素值修改操作,对掩膜图像中相应像素点的原始的像素值进行更新,得到更新后的相应像素点的像素值,终端可基于更新后的相应像素点的像素值,确定目标区域对应的场景元素密度分布信息。
在一个实施例中,像素值修改操作可以通过针对掩膜图像中像素点的选择操作来实现。终端可响应于针对掩膜图像中像素点的选择操作,确定在掩膜图像上所选择的像素区域。终端可修改像素区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到目标区域对应的场景元素密度分布信息。其中,像素区域,是基于针对掩膜图像中像素点的选择操作所选择的像素点所在的区域。
上述实施例中,通过在目标区域上覆盖掩膜图像,并通过掩膜图像中像素点的像素值来表征场景元素密度分布信息,进而可通过对掩膜图像中像素点的像素值进行更新,快速获得目标区域对应的场景元素密度分布信息,提升场景元素密度分布信息获取效率。
在一个实施例中,目标区域上覆盖有至少一张掩膜图像;目标区域支持渲染生成至少一种元素类型的场景元素;目标区域上覆盖掩膜图像的数量与目标区域支持的元素类型的数量相同;一张掩膜图像对应一种元素类型。
可以理解,场景元素的元素类型可包括多种,针对每一种元素类型,该种元素类型的场景元素,可通过与该种元素类型对应的掩膜图像进行控制,即通过与该种元素类型对应的掩膜图像,记录属于该种元素类型的场景元素的场景元素密度分布信息。各种元素类型对应的掩膜图像之间互相独立,互不影响。
举例说明,目标区域上覆盖有三张掩膜图像,分别是掩膜图像A,掩膜图像B和掩膜图像C。这三张掩膜图像可分别元素类型a、元素类型b和元素类型c。具体地,掩膜图像A用于记录属于元素类型a的场景元素的场景元素密度分布信息,掩膜图像B用于记录属于元素类型b的场景元素的场景元素密度分布信息,掩膜图像C用于记录属于元素类型c的场景元素的场景元素密度分布信息。
上述实施例中,通过在目标区域上覆盖至少一张掩膜图像,并通过每一张掩膜图像对应一种元素类型,可实现在目标区域分别独立渲染生成不同元素类型的场景元素,丰富目标区域上渲染生成的场景元素的元素类型。
在一个实施例中,像素值修改操作通过控制虚拟工具在掩膜图像上移动来实现;响应于针对目标区域上覆盖的掩膜图像的像素值修改操作,对掩膜图像中像素点的像素值进行更新,得到目标区域对应的场景元素密度分布信息,包括:响应于控制虚拟工具在掩膜图像上移动的操作,确定虚拟工具在掩膜图像上的移动区域;移动区域是虚拟工具在掩膜图像上移动时所经过的区域;修改移动区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到目标区域对应的场景元素密度分布信息。
其中,虚拟工具,是虚拟场景中的绘制工具。即虚拟场景中可以提供该虚拟工具,以供操作使用。可以理解,控制虚拟工具在掩膜图像上移动,是上述实现针对掩膜图像中像素点的选择操作的其中一种实现方式。通过控制虚拟工具在掩膜图像上进行移动,可以修改移动区域内的像素点的像素值。即,虚拟工具是通过移动修改掩膜图像上各点像素值以渲染生成场景元素的工具。
具体地,用户可控制虚拟工具在掩膜图像上移动,终端可响应于控制虚拟工具在掩膜图像上移动的操作,确定虚拟工具在掩膜图像上移动时所经过的移动区域。终端可修改移动区域内的像素点的像素值,得到修改后的掩膜图像中各像素点的像素值。进而,终端可基于修改后的掩膜图像中各像素点的像素值,确定目标区域对应的场景元素密度分布信息。
在一个实施例中,虚拟工具范围的大小可改变,可以理解,虚拟工具范围越大,虚拟工具在掩膜图像上移动时所经过的移动区域就越大,即,终端可修改移动区域内的像素点的数量就越多,可一次性渲染生成场景元素的范围就越大。虚拟工具范围越小,虚拟工具在掩膜图像上移动时所经过的移动区域就越小,即,终端可修改移动区域内的像素点的数量就越少,可一次性渲染生成场景元素的范围就越小。这样,通过控制虚拟工具范围大小,可按需一次性渲染生成不同范围大小的场景元素,相较于传统的按颗或按单元格渲染生成场景元素的方式,本申请渲染生成场景元素的操作更为便捷,可以一次性渲染生成大范围的场景元素。
在一个实施例中,如图5所示,终端可通过展示界面501展示各种元素类型的场景元素,比如,展示界面501中展示的元素类型1至元素类型12。在选定元素类型之后,终端可通过虚拟工具描述界面503展示所选定的元素类型和针对虚拟工具的相关描述,即“通过虚拟工具可批量生成场景元素,同时可控制虚拟工具范围大小”。比如,在选定元素类型10之后,终端可通过虚拟工具描述界面503展示所选定的元素类型10和针对虚拟工具的相关描述。
在一个实施例中,如图6所示,响应于控制虚拟工具在掩膜图像601上移动的操作,终端可确定虚拟工具在掩膜图像上的移动区域602。
在一个实施例中,虚拟工具可以是虚拟笔刷。如图7所示,以虚拟工具为虚拟笔刷为例,终端可通过笔刷范围调节界面701展示用于调节虚拟笔刷范围大小的笔刷范围调节控件702,终端可通过笔刷范围调节控件702调节虚拟笔刷范围的大小。
在一个实施例中,如图8所示,响应于控制虚拟笔刷在掩膜图像801上移动的操作,终端可确定虚拟笔刷在掩膜图像上的移动区域802和移动区域803,其中,移动区域802对应的虚拟笔刷范围大于移动区域803对应的虚拟笔刷范围,移动区域802的面积大于移动区域803的面积。
上述实施例中,通过控制虚拟工具在掩膜图像上移动的操作来修改移动区域内的像素点的像素值,从而实现控制场景元素的渲染生成,提供了一种全新的场景元素渲染生成方式,通过控制虚拟工具来渲染生成场景元素,操作更为便捷。
在一个实施例中,获取第一元素密度值;第一元素密度值,是目标区域支持渲染的目标元素类型所对应的最大元素密度值;目标元素类型是待生成场景元素所属的元素类型;根据第一元素密度值和目标区域的大小,确定待生成的场景元素的目标数量;在目标区域中确定符合目标数量的候选位置。
具体地,第一元素密度值是通过预先设置得到的、且目标区域支持渲染的目标元素类型所对应的最大元素密度值。终端可获取预先设置的、且目标区域支持渲染的目标元素类型所对应的第一元素密度值。终端可根据第一元素密度值和目标区域的大小,确定待生成的场景元素的目标数量。进而,终端可在目标区域中确定符合目标数量的候选位置。
在一个实施例中,终端可根据第一元素密度值和目标区域的面积,确定待生成的场景元素的目标数量。
在一个实施例中,终端可将第一元素密度值和目标区域的面积的乘积,直接作为待生成的场景元素的目标数量。
上述实施例中,根据目标区域支持渲染的目标元素类型所对应的第一元素密度值和目标区域的大小,确定待生成的场景元素的目标数量,并在目标区域中确定符合目标数量的候选位置,这样,根据场景元素的元素类型不同,在目标区域中设定不同数量的候选位置,提升了在目标区域中渲染生成场景元素的视觉效果。
在一个实施例中,目标区域中候选位置的目标数量,也可是预先设置的。终端可在目标区域中确定符合预设设置的目标数量的候选位置。
在一个实施例中,目标区域上覆盖有掩膜图像;掩膜图像中像素点的像素值用于表征场景元素密度分布信息;基于场景元素密度分布信息,确定目标区域中各候选位置对应的元素密度值,包括:针对目标区域中的每一个候选位置,基于候选位置在掩膜图像中进行上采样,并将上采样得到的像素值作为候选位置对应的元素密度值。
其中,上采样是一种提升图像分辨率的图像处理方式,通过对图像进行上采样可以提升图像的分辨率。可以理解,上采样可在图像原有像素点的像素值基础上,确定图像中已丢失像素点的像素值。
具体地,针对目标区域中的每一个候选位置,终端可基于该候选位置,在掩膜图像中进行上采样。进而,终端可将上采样得到的像素值作为候选位置对应的元素密度值。可以理解,上采样得到的像素值可以是掩膜图像中像素点的像素值,也可以是基于掩膜图像中像素点的像素值计算得到的新的像素值。
在一个实施例中,可通过单线性插值采样的方式实现上采样,也可通过双线性插值采样的方式实现上采样,本实施例对上采样的方式不做具体限定。
上述实施例中,通过基于候选位置在掩膜图像中进行上采样,将上采样得到的像素值作为候选位置对应的元素密度值,可提升候选位置对应的元素密度值的准确率。
在一个实施例中,针对目标区域中的每一个候选位置,基于候选位置在掩膜图像中进行上采样,并将上采样得到的像素值作为候选位置对应的元素密度值,包括:在掩膜图像中确定与候选位置具有映射关系的映射位置;在掩膜图像的各个像素点中确定与映射位置相邻的多个目标像素点;根据多个目标像素点分别对应的像素值,确定映射位置对应的像素值,以得到候选位置对应的元素密度值。
其中,映射位置,是掩膜图像中的、且与目标区域的候选位置具有映射关系的位置。目标像素点,是掩膜图像的各个像素点中的、且与映射位置相邻的像素点。
具体地,针对每一个候选位置,终端可在掩膜图像中确定与该候选位置具有映射关系的映射位置,并在掩膜图像的各个像素点中,确定与映射位置相邻的多个目标像素点。终端可获取多个目标像素点分别对应的像素值。进而,终端可根据多个目标像素点分别对应的像素值,确定映射位置对应的像素值,并基于映射位置对应的像素值,确定候选位置对应的元素密度值。
在一个实施例中,终端可将映射位置对应的像素值,直接作为候选位置对应的元素密度值。
举例说明,终端可在掩膜图像的各个像素点中,确定与映射位置相邻的四个目标像素点。终端可获取这四个目标像素点分别对应的像素值。进而,终端可根据这四个目标像素点分别对应的像素值,确定映射位置对应的像素值。
上述实施例中,通过根据与映射位置相邻的目标像素点所对应的像素值,可以确定映射位置对应的像素值,根据映射位置对应的像素值可确定候选位置对应的元素密度值,这样可进一步提升候选位置对应的元素密度值的准确率。
在一个实施例中,基于元素密度值从各候选位置中确定元素生成位置,包括:基于各候选位置对应的元素密度值,分别确定各候选位置对应的元素生成概率;元素生成概率是指在各候选位置渲染生成场景元素的概率;根据各候选位置对应的元素生成概率,从各候选位置中确定元素生成位置。
具体地,终端可基于各候选位置对应的元素密度值,分别确定在各候选位置渲染生成场景元素的元素生成概率。进而,终端可根据各候选位置对应的元素生成概率,从目标区域的各候选位置中确定元素生成位置。
在一个实施例中,终端可将各候选位置对应的元素密度值,分别作为在各候选位置渲染生成场景元素的元素生成概率。
上述实施例中,通过各候选位置对应的元素密度值,可分别确定各候选位置对应的元素生成概率,根据各候选位置对应的元素生成概率,可从各候选位置中确定元素生成位置,提升了所确定的元素生成位置的准确性。
在一个实施例中,基于各候选位置对应的元素密度值,分别确定各候选位置对应的元素生成概率,包括:针对每一个候选位置,获取候选位置对应的第二元素密度值;第二元素密度值,是候选位置支持渲染生成场景元素的最大元素密度值;基于候选位置对应的元素密度值与第二元素密度值的比值,确定候选位置对应的元素生成概率。
具体地,针对每一个候选位置,终端可获取候选位置支持渲染生成场景元素的第二元素密度值,并确定候选位置对应的元素密度值与第二元素密度值的比值。进而,终端可基于候选位置对应的元素密度值与第二元素密度值的比值,确定候选位置对应的元素生成概率。
在一个实施例中,终端可将候选位置对应的元素密度值与第二元素密度值的比值,直接作为候选位置对应的元素生成概率。
在一个实施例中,若掩膜图像中各个像素点的像素值的取值范围为0至15之间。如图9所示,掩膜图像中任意两个相邻的像素点901和902,其中,像素点901的像素值为0,像素点902的像素值为15。候选位置A位于像素点901的像素中心,可知候选位置A的像素值为像素点901的像素值,即候选位置A的像素值0,候选位置C位于像素点902的像素中心,可知候选位置C的像素值为像素点902的像素值,即候选位置C的像素值15,候选位置B位于像素点901与像素点902的中间,可知候选位置B的像素值为像素点901的像素值0与像素点902的像素值15的平均值,即候选位置B的像素值7.5。可以理解,候选位置A对应的元素密度值为0,候选位置B对应的元素密度值为7.5,候选位置C对应的元素密度值为1。终端可将各候选位置对应的元素密度值与候选位置支持渲染生成场景元素的最大元素密度值15的比值,直接作为候选位置对应的元素生成概率,可知,候选位置A对应的元素生成概率为0,候选位置B对应的元素生成概率为0.5,候选位置C对应的元素生成概率为1。
上述实施例中,通过候选位置对应的元素密度值与候选位置支持渲染生成场景元素的第二元素密度值的比值,可确定候选位置对应的元素生成概率,提升了元素生成概率的准确性。
在一个实施例中,方法还包括:生成与目标区域对应的随机数;根据各候选位置对应的元素生成概率,从各候选位置中确定元素生成位置,包括:根据各候选位置对应的元素生成概率和随机数的大小关系,从各候选位置中确定元素生成位置。
其中,随机数,是随机生成的、且与目标区域对应的数值。
具体地,终端可将各候选位置对应的元素生成概率分别和随机数进行大小比较,得到各候选位置对应的元素生成概率和随机数的大小关系。进而,终端可根据各候选位置对应的元素生成概率和随机数的大小关系,从各候选位置中确定元素生成位置。
在一个实施例中,终端可将元素生成概率大于或等于随机数的候选位置,确定为元素生成位置。
上述实施例中,通过各候选位置对应的元素生成概率和随机数的大小关系,可以从各候选位置中确定元素生成位置。通过增加随机数,可避免元素在生成概率相同的多个候选位置上同时生成或同时不生成场景元素,从而避免了重复感。
在一个实施例中,目标区域对应的场景元素密度分布信息包括多个元素密度值;方法还包括:获取执行场景元素添加操作之前目标区域对应的初始场景元素密度分布信息;初始场景元素密度分布信息包括多个初始元素密度值;将场景元素密度分布信息中的各个元素密度值分别与各个初始元素密度值进行比对,以从场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值;将已更新的元素密度值同步至服务器。
其中,初始元素密度值,是用于表征执行场景元素添加操作之前的、且待生成的场景元素的密度值。
具体地,终端可获取执行场景元素添加操作之前目标区域对应的初始场景元素密度分布信息。终端可将场景元素密度分布信息中的各个元素密度值,分别与初始场景元素密度分布信息中的各个初始元素密度值进行比对,并根据比对结果,从场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值。进而,终端可将已更新的元素密度值同步至服务器,以便服务器存储已更新的元素密度值。可以理解,服务器中已存储有执行场景元素添加操作之前目标区域对应的初始场景元素密度分布信息,在接收到终端同步的已更新的元素密度值后,服务器可根据已更新的元素密度值对应的位置坐标,查找初始场景元素密度分布信息中相应的初始元素密度值,并将查找到的相应的初始元素密度值修改为已更新的元素密度值。
上述实施例中,通过将场景元素密度分布信息中的各个元素密度值分别与各个初始元素密度值进行比对,可以从场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值,通过增量更新的方式,仅将已更新的元素密度值同步至服务器,相较于传统的将全量的元素密度值发送至服务器的数据更新方式,本申请增量更新的方式减少了每次同步的数据量,提升了数据更新效率。
在一个实施例中,如图10所示,本申请可提供8种元素类型的场景元素,即元素类型1至元素类型8。如图11,若选定了图10中的元素类型3,终端可在目标区域中渲染生成属于元素类型3的场景元素。从图11可知,场景元素在目标区域中的分布可呈现中间茂盛两边稀疏的情况,避免了生成的场景元素呈现单调重复分布的情况,从而能够使场景元素更好地融入虚拟场景。
在一个实施例中,虚拟场景为虚拟游戏场景;目标区域包括虚拟游戏场景中的虚拟地块;场景元素包括虚拟游戏场景中的虚拟植物;场景元素密度分布信息,用于指示至少一个待生成的虚拟植物在虚拟地块中的分布情况。
具体地,终端可展示虚拟游戏场景中待进行场景元素渲染处理的虚拟地块,并可响应于针对虚拟地块的场景元素添加操作,获取虚拟地块对应的场景元素密度分布信息,其中,场景元素密度分布信息,用于指示至少一个待生成的虚拟植物在虚拟地块中的分布情况。终端可基于场景元素密度分布信息,确定虚拟地块中各候选位置对应的元素密度值。进而,终端可基于元素密度值从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的虚拟植物。可以理解,上述的元素类型可以是虚拟植物的植物类型。
上述实施例中,通过本申请的将场景元素处理方法应用于虚拟游戏场景,可使得拟游戏场景中的虚拟植物能够更好地融入虚拟游戏场景。
如图12所示,在一个实施例中,提供了一种场景元素处理方法,该方法可应用于图1中的终端102,由终端102自身单独执行,也可以通过终端102和服务器104之间的交互来实现。该方法具体包括以下步骤:
步骤1202,展示虚拟场景中待进行场景元素渲染处理的目标区域;目标区域上覆盖有掩膜图像;掩膜图像中像素点的像素值用于表征目标区域对应的场景元素密度分布信息;场景元素密度分布信息,用于指示至少一个待生成的场景元素在目标区域中的分布情况。
步骤1204,响应于控制虚拟工具在掩膜图像上移动的操作,确定虚拟工具在掩膜图像上的移动区域;移动区域是虚拟工具在掩膜图像上移动时所经过的区域。
步骤1206,修改移动区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到目标区域对应的场景元素密度分布信息。
在一个实施例中,目标区域上覆盖有至少一张掩膜图像;目标区域支持渲染生成至少一种元素类型的场景元素;目标区域上覆盖掩膜图像的数量与目标区域支持的元素类型的数量相同;一张掩膜图像对应一种元素类型。
步骤1208,获取第一元素密度值;第一元素密度值,是目标区域支持渲染的目标元素类型所对应的最大元素密度值;目标元素类型是待生成场景元素所属的元素类型。
步骤1210,根据第一元素密度值和目标区域的大小,确定待生成的场景元素的目标数量。
步骤1212,在目标区域中确定符合目标数量的候选位置,在掩膜图像中确定与候选位置具有映射关系的映射位置。
步骤1214,在掩膜图像的各个像素点中确定与映射位置相邻的多个目标像素点。
步骤1216,根据多个目标像素点分别对应的像素值,确定映射位置对应的像素值,以得到候选位置对应的元素密度值。
步骤1218,针对每一个候选位置,获取候选位置对应的第二元素密度值;第二元素密度值,是候选位置支持渲染生成场景元素的最大元素密度值。
步骤1220,基于候选位置对应的元素密度值与第二元素密度值的比值,确定候选位置对应的元素生成概率;元素生成概率是指在各候选位置渲染生成场景元素的概率。
步骤1222,生成与目标区域对应的随机数。
步骤1224,根据各候选位置对应的元素生成概率和随机数的大小关系,从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。
步骤1226,获取执行场景元素添加操作之前目标区域对应的初始场景元素密度分布信息;初始场景元素密度分布信息包括多个初始元素密度值。
步骤1228,将场景元素密度分布信息中的各个元素密度值分别与各个初始元素密度值进行比对,以从场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值。
步骤1230,将已更新的元素密度值同步至服务器。
本申请还提供一种应用场景,该应用场景应用上述的场景元素处理方法。具体地,该场景元素处理方法可应用于游戏中虚拟植物生成的场景。终端可展示虚拟游戏场景中待进行场景元素渲染处理的虚拟地块;虚拟地块上覆盖有掩膜图像;掩膜图像中像素点的像素值用于表征虚拟地块对应的场景元素密度分布信息;场景元素密度分布信息,用于指示至少一个待生成的虚拟植物在虚拟地块中的分布情况。响应于控制虚拟工具在掩膜图像上移动的操作,确定虚拟工具在掩膜图像上的移动区域;移动区域是虚拟工具在掩膜图像上移动时所经过的区域。修改移动区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到虚拟地块对应的场景元素密度分布信息。
需要说明的是,虚拟地块上可覆盖有至少一张掩膜图像;虚拟地块中可支持渲染生成至少一种元素类型的虚拟植物;虚拟地块上覆盖掩膜图像的数量与虚拟地块中支持的元素类型的数量相同;一张掩膜图像对应一种元素类型。
终端可获取第一元素密度值;第一元素密度值,是虚拟地块支持渲染的目标元素类型所对应的最大元素密度值;目标元素类型是待生成虚拟植物所属的元素类型。根据第一元素密度值和虚拟地块的大小,确定待生成的虚拟植物的目标数量。在虚拟地块中确定符合目标数量的候选位置,在掩膜图像中确定与候选位置具有映射关系的映射位置。在掩膜图像的各个像素点中确定与映射位置相邻的多个目标像素点。根据多个目标像素点分别对应的像素值,确定映射位置对应的像素值,以得到候选位置对应的元素密度值。
针对每一个候选位置,终端可获取候选位置对应的第二元素密度值;第二元素密度值,是候选位置支持渲染生成虚拟植物的最大元素密度值。基于候选位置对应的元素密度值与第二元素密度值的比值,确定候选位置对应的元素生成概率;元素生成概率是指在各候选位置渲染生成虚拟植物的概率。生成与虚拟地块对应的随机数;根据各候选位置对应的元素生成概率和随机数的大小关系,从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的虚拟植物。
终端可获取执行场景元素添加操作之前虚拟地块对应的初始场景元素密度分布信息;初始场景元素密度分布信息包括多个初始元素密度值;将场景元素密度分布信息中的各个元素密度值分别与各个初始元素密度值进行比对,以从场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值;将已更新的元素密度值同步至服务器。
举例说明,本申请的场景元素处理方法可应用于多人在线角色扮演游戏中,可以理解,多人在线角色扮演游戏中可提供一个家园系统入口,通过家园系统入口玩家可进入家园系统,并在家园系统中通过虚拟工具编辑覆盖在虚拟地块上的掩膜图像,改变待生成的虚拟植物的元素密度值,从而可实现在虚拟地块上种植虚拟植物。通过修改虚拟地块中待生成的虚拟植物的元素密度值,可避免生成的虚拟植物呈现单调重复分布的情况,使虚拟植物可以更好地融入家园系统中的游戏场景,从而能够提高渲染效果。
本申请还另外提供一种应用场景,该应用场景应用上述的场景元素处理方法。具体地,该场景元素处理方法可应用于游戏中虚拟人物生成的场景或游戏中虚拟动物生成的场景。可以理解,该场景元素处理方法还可应用于可视化设计和VR(Virtual Reality,虚拟现实)等中虚拟元素(即场景元素)生成的场景。可以理解,虚拟元素可包括虚拟植物、虚拟人物、虚拟动物和虚拟道具等中的一种。比如,在VR场景中,通过本申请的场景元素处理方法,可在VR场景的目标区域中渲染生成相应的虚拟元素,使虚拟元素更好地融入VR场景。可以理解,本申请的场景元素处理方法还可应用于工业化设计当中的应用场景,比如,可将本申请的场景元素处理方法应用于工业设计软件中批量生成虚拟建筑等场景元素。通过本申请的场景元素处理方法,可在工业设计场景的目标区域中渲染生成相应的虚拟建筑,使虚拟建筑更好地融入工业设计场景,从而有效地辅助工业设计,满足工业设计较为复杂的要求。
应该理解的是,虽然上述各实施例的流程图中的各个步骤按照顺序依次显示,但是这些步骤并不是必然按照顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图13所示,提供了一种场景元素处理装置1300,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:
展示模块1302,用于展示虚拟场景中待进行场景元素渲染处理的目标区域。
获取模块1304,用于响应于针对目标区域的场景元素添加操作,获取目标区域对应的场景元素密度分布信息;场景元素密度分布信息,用于指示至少一个待生成的场景元素在目标区域中的分布情况。
确定模块1306,用于基于场景元素密度分布信息,确定目标区域中各候选位置对应的元素密度值。
生成模块1308,用于基于元素密度值从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。
在一个实施例中,目标区域上覆盖有掩膜图像;掩膜图像中像素点的像素值用于表征场景元素密度分布信息;场景元素添加操作包括像素值修改操作;像素值修改操作,用于修改掩膜图像中像素点的像素值;获取模块1304还用于响应于针对目标区域上覆盖的掩膜图像的像素值修改操作,对掩膜图像中像素点的像素值进行更新,得到目标区域对应的场景元素密度分布信息。
在一个实施例中,目标区域上覆盖有至少一张掩膜图像;目标区域支持渲染生成至少一种元素类型的场景元素;目标区域上覆盖掩膜图像的数量与目标区域支持的元素类型的数量相同;一张掩膜图像对应一种元素类型。
在一个实施例中,像素值修改操作通过控制虚拟工具在掩膜图像上移动来实现;获取模块1304还用于响应于控制虚拟工具在掩膜图像上移动的操作,确定虚拟工具在掩膜图像上的移动区域;移动区域是虚拟工具在掩膜图像上移动时所经过的区域;修改移动区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到目标区域对应的场景元素密度分布信息。
在一个实施例中,确定模块1306还用于获取第一元素密度值;第一元素密度值,是目标区域支持渲染的目标元素类型所对应的最大元素密度值;目标元素类型是待生成场景元素所属的元素类型;根据第一元素密度值和目标区域的大小,确定待生成的场景元素的目标数量;在目标区域中确定符合目标数量的候选位置。
在一个实施例中,目标区域上覆盖有掩膜图像;掩膜图像中像素点的像素值用于表征场景元素密度分布信息;确定模块1306还用于针对目标区域中的每一个候选位置,基于候选位置在掩膜图像中进行上采样,并将上采样得到的像素值作为候选位置对应的元素密度值。
在一个实施例中,确定模块1306还用于在掩膜图像中确定与候选位置具有映射关系的映射位置;在掩膜图像的各个像素点中确定与映射位置相邻的多个目标像素点;根据多个目标像素点分别对应的像素值,确定映射位置对应的像素值,以得到候选位置对应的元素密度值。
在一个实施例中,生成模块1308还用于基于各候选位置对应的元素密度值,分别确定各候选位置对应的元素生成概率;元素生成概率是指在各候选位置渲染生成场景元素的概率;根据各候选位置对应的元素生成概率,从各候选位置中确定元素生成位置。
在一个实施例中,生成模块1308还用于针对每一个候选位置,获取候选位置对应的第二元素密度值;第二元素密度值,是候选位置支持渲染生成场景元素的最大元素密度值;基于候选位置对应的元素密度值与第二元素密度值的比值,确定候选位置对应的元素生成概率。
在一个实施例中,生成模块1308还用于生成与目标区域对应的随机数;根据各候选位置对应的元素生成概率和随机数的大小关系,从各候选位置中确定元素生成位置。
在一个实施例中,目标区域对应的场景元素密度分布信息包括多个元素密度值;装置还包括:同步模块,用于获取执行场景元素添加操作之前目标区域对应的初始场景元素密度分布信息;初始场景元素密度分布信息包括多个初始元素密度值;将场景元素密度分布信息中的各个元素密度值分别与各个初始元素密度值进行比对,以从场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值;将已更新的元素密度值同步至服务器。
在一个实施例中,虚拟场景为虚拟游戏场景;目标区域包括虚拟游戏场景中的虚拟地块;场景元素包括虚拟游戏场景中的虚拟植物;场景元素密度分布信息,用于指示至少一个待生成的虚拟植物在虚拟地块中的分布情况。
上述场景元素处理装置,通过展示虚拟场景中待进行场景元素渲染处理的目标区域,响应于针对目标区域的场景元素添加操作,可获取目标区域对应的场景元素密度分布信息,其中,场景元素密度分布信息,可用于指示至少一个待生成的场景元素在目标区域中的分布情况。基于场景元素密度分布信息,可确定目标区域中各候选位置对应的元素密度值,进而基于元素密度值可从各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。相较于传统的通过单个或以单元格生成场景元素的方式,本申请的场景元素处理方法通过执行针对目标区域的场景元素添加操作,可个性化地对目标区域对应的场景元素密度分布信息进行更新,以提升目标区域中待生成的场景元素的元素密度值,进而可基于更新后的场景元素密度分布信息,从目标区域的各候选位置中确定元素生成位置,并在元素生成位置中渲染生成相应的场景元素。这样,通过修改目标区域中待生成的场景元素的元素密度值,可避免生成的场景元素呈现单调重复分布的情况,使场景元素可以更好地融入虚拟场景,从而能够提高渲染效果。
上述场景元素处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图14所示。该计算机设备包括处理器、存储器、输入/输出接口、通信接口、显示单元和输入装置。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口、显示单元和输入装置通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种场景元素处理方法。该计算机设备的显示单元用于形成视觉可见的画面,可以是显示屏、投影装置或虚拟现实成像装置,显示屏可以是液晶显示屏或电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种场景元素处理方法,其特征在于,所述方法包括:
展示虚拟场景中待进行场景元素渲染处理的目标区域;
响应于针对所述目标区域的场景元素添加操作,获取所述目标区域对应的场景元素密度分布信息;所述场景元素密度分布信息,用于指示至少一个待生成的场景元素在所述目标区域中的分布情况;
基于所述场景元素密度分布信息,确定所述目标区域中各候选位置对应的元素密度值;
基于所述元素密度值从各候选位置中确定元素生成位置,并在所述元素生成位置中渲染生成相应的场景元素。
2.根据权利要求1所述的方法,其特征在于,所述目标区域上覆盖有掩膜图像;所述掩膜图像中像素点的像素值用于表征所述场景元素密度分布信息;所述场景元素添加操作包括像素值修改操作;所述像素值修改操作,用于修改所述掩膜图像中像素点的像素值;
所述响应于针对所述目标区域的场景元素添加操作,获取所述目标区域对应的场景元素密度分布信息,包括:
响应于针对所述目标区域上覆盖的掩膜图像的像素值修改操作,对所述掩膜图像中像素点的像素值进行更新,得到所述目标区域对应的场景元素密度分布信息。
3.根据权利要求2所述的方法,其特征在于,所述目标区域上覆盖有至少一张掩膜图像;所述目标区域支持渲染生成至少一种元素类型的场景元素;所述目标区域上覆盖掩膜图像的数量与所述目标区域支持的元素类型的数量相同;一张掩膜图像对应一种元素类型。
4.根据权利要求2所述的方法,其特征在于,所述像素值修改操作通过控制虚拟工具在所述掩膜图像上移动来实现;所述响应于针对所述目标区域上覆盖的掩膜图像的像素值修改操作,对所述掩膜图像中像素点的像素值进行更新,得到所述目标区域对应的场景元素密度分布信息,包括:
响应于控制所述虚拟工具在所述掩膜图像上移动的操作,确定所述虚拟工具在所述掩膜图像上的移动区域;所述移动区域是所述虚拟工具在所述掩膜图像上移动时所经过的区域;
修改所述移动区域内的像素点的像素值,以基于修改后的掩膜图像中各像素点的像素值,得到所述目标区域对应的场景元素密度分布信息。
5.根据权利要求1所述的方法,其特征在于,所述方法包括:
获取第一元素密度值;所述第一元素密度值,是所述目标区域支持渲染的目标元素类型所对应的最大元素密度值;所述目标元素类型是待生成场景元素所属的元素类型;
根据所述第一元素密度值和所述目标区域的大小,确定所述待生成的场景元素的目标数量;
在所述目标区域中确定符合所述目标数量的候选位置。
6.根据权利要求1所述的方法,其特征在于,所述目标区域上覆盖有掩膜图像;所述掩膜图像中像素点的像素值用于表征所述场景元素密度分布信息;
所述基于所述场景元素密度分布信息,确定所述目标区域中各候选位置对应的元素密度值,包括:
针对所述目标区域中的每一个候选位置,基于所述候选位置在所述掩膜图像中进行上采样,并将上采样得到的像素值作为所述候选位置对应的元素密度值。
7.根据权利要求6所述的方法,其特征在于,所述针对所述目标区域中的每一个候选位置,基于所述候选位置在所述掩膜图像中进行上采样,并将上采样得到的像素值作为所述候选位置对应的元素密度值,包括:
在所述掩膜图像中确定与所述候选位置具有映射关系的映射位置;
在所述掩膜图像的各个像素点中确定与所述映射位置相邻的多个目标像素点;
根据所述多个目标像素点分别对应的像素值,确定所述映射位置对应的像素值,以得到所述候选位置对应的元素密度值。
8.根据权利要求1所述的方法,其特征在于,所述基于所述元素密度值从各候选位置中确定元素生成位置,包括:
基于各候选位置对应的元素密度值,分别确定各候选位置对应的元素生成概率;所述元素生成概率是指在所述各候选位置渲染生成场景元素的概率;
根据所述各候选位置对应的元素生成概率,从所述各候选位置中确定元素生成位置。
9.根据权利要求8所述的方法,其特征在于,所述基于各候选位置对应的元素密度值,分别确定各候选位置对应的元素生成概率,包括:
针对每一个候选位置,获取所述候选位置对应的第二元素密度值;所述第二元素密度值,是所述候选位置支持渲染生成所述场景元素的最大元素密度值;
基于所述候选位置对应的元素密度值与所述第二元素密度值的比值,确定所述候选位置对应的元素生成概率。
10.根据权利要求8所述的方法,其特征在于,所述方法还包括:
生成与所述目标区域对应的随机数;
所述根据所述各候选位置对应的元素生成概率,从所述各候选位置中确定元素生成位置,包括:
根据所述各候选位置对应的元素生成概率和所述随机数的大小关系,从所述各候选位置中确定元素生成位置。
11.根据权利要求1所述的方法,其特征在于,所述目标区域对应的场景元素密度分布信息包括多个元素密度值;所述方法还包括:
获取执行所述场景元素添加操作之前所述目标区域对应的初始场景元素密度分布信息;所述初始场景元素密度分布信息包括多个初始元素密度值;
将所述场景元素密度分布信息中的各个元素密度值分别与各个所述初始元素密度值进行比对,以从所述场景元素密度分布信息的各个元素密度值中,筛选出已更新的元素密度值;
将所述已更新的元素密度值同步至服务器。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述虚拟场景为虚拟游戏场景;所述目标区域包括所述虚拟游戏场景中的虚拟地块;所述场景元素包括所述虚拟游戏场景中的虚拟植物;所述场景元素密度分布信息,用于指示至少一个待生成的虚拟植物在所述虚拟地块中的分布情况。
13.一种场景元素处理装置,其特征在于,所述装置包括:
展示模块,用于展示虚拟场景中待进行场景元素渲染处理的目标区域;
获取模块,用于响应于针对所述目标区域的场景元素添加操作,获取所述目标区域对应的场景元素密度分布信息;所述场景元素密度分布信息,用于指示至少一个待生成的场景元素在所述目标区域中的分布情况;
确定模块,用于基于所述场景元素密度分布信息,确定所述目标区域中各候选位置对应的元素密度值;
生成模块,用于基于所述元素密度值从各候选位置中确定元素生成位置,并在所述元素生成位置中渲染生成相应的场景元素。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法的步骤。
15.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
CN202210267179.1A 2022-03-18 2022-03-18 场景元素处理方法、装置、设备和介质 Active CN114344894B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210267179.1A CN114344894B (zh) 2022-03-18 2022-03-18 场景元素处理方法、装置、设备和介质
PCT/CN2022/137148 WO2023173828A1 (zh) 2022-03-18 2022-12-07 场景元素处理方法、装置、设备和介质
US18/238,413 US20230401806A1 (en) 2022-03-18 2023-08-25 Scene element processing method and apparatus, device, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210267179.1A CN114344894B (zh) 2022-03-18 2022-03-18 场景元素处理方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN114344894A true CN114344894A (zh) 2022-04-15
CN114344894B CN114344894B (zh) 2022-06-03

Family

ID=81094776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210267179.1A Active CN114344894B (zh) 2022-03-18 2022-03-18 场景元素处理方法、装置、设备和介质

Country Status (3)

Country Link
US (1) US20230401806A1 (zh)
CN (1) CN114344894B (zh)
WO (1) WO2023173828A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023173828A1 (zh) * 2022-03-18 2023-09-21 腾讯科技(深圳)有限公司 场景元素处理方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080238919A1 (en) * 2007-03-27 2008-10-02 Utah State University System and method for rendering of texel imagery
CN108543311A (zh) * 2018-04-20 2018-09-18 苏州蜗牛数字科技股份有限公司 一种自动生成场景植被系统的方法
CN112245926A (zh) * 2020-11-16 2021-01-22 腾讯科技(深圳)有限公司 虚拟地形的渲染方法、装置、设备及介质
CN112587921A (zh) * 2020-12-16 2021-04-02 成都完美时空网络技术有限公司 模型处理方法和装置、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114344894B (zh) * 2022-03-18 2022-06-03 腾讯科技(深圳)有限公司 场景元素处理方法、装置、设备和介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080238919A1 (en) * 2007-03-27 2008-10-02 Utah State University System and method for rendering of texel imagery
CN108543311A (zh) * 2018-04-20 2018-09-18 苏州蜗牛数字科技股份有限公司 一种自动生成场景植被系统的方法
CN112245926A (zh) * 2020-11-16 2021-01-22 腾讯科技(深圳)有限公司 虚拟地形的渲染方法、装置、设备及介质
CN112587921A (zh) * 2020-12-16 2021-04-02 成都完美时空网络技术有限公司 模型处理方法和装置、电子设备和存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023173828A1 (zh) * 2022-03-18 2023-09-21 腾讯科技(深圳)有限公司 场景元素处理方法、装置、设备和介质

Also Published As

Publication number Publication date
CN114344894B (zh) 2022-06-03
WO2023173828A1 (zh) 2023-09-21
US20230401806A1 (en) 2023-12-14

Similar Documents

Publication Publication Date Title
JP7258400B6 (ja) ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム
CN110058685B (zh) 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质
CN108959392B (zh) 在3d模型上展示富文本的方法、装置及设备
CN111803953A (zh) 图像处理方法、装置、计算机设备和计算机可读存储介质
CN115494987A (zh) 基于视频的交互方法、装置、计算机设备和存储介质
CN115984447B (zh) 图像渲染方法、装置、设备和介质
CN114344894B (zh) 场景元素处理方法、装置、设备和介质
CN113470092B (zh) 地形的渲染方法和装置、电子设备和存储介质
CN116115995A (zh) 图像渲染处理方法、装置及电子设备
KR101910931B1 (ko) 고유코드를 이용한 푸드 3d 증강현실 서비스 제공 방법
CN114022518B (zh) 图像的光流信息获取方法、装置、设备和介质
CN115965731A (zh) 渲染交互方法、装置、终端、服务器、存储介质及产品
CN115487495A (zh) 数据渲染方法以及装置
CN115619904A (zh) 图像处理方法、装置及设备
JP7387767B2 (ja) Gisポイントデータをレンダリングする方法、装置、コンピュータ設備、および記憶媒体
CN114913287A (zh) 一种三维人体模型重建方法及系统
CN117557711B (zh) 可视域的确定方法、装置、计算机设备、存储介质
US11875445B2 (en) Seamless image processing of a tiled image region
US20240212282A1 (en) Image rendering method and apparatus, device, and medium
US20220351479A1 (en) Style transfer program and style transfer method
CN114288647B (zh) 基于AI Designer的人工智能游戏引擎、游戏渲染方法及装置
CN116883563B (zh) 标注点渲染方法、装置、计算机设备、存储介质
CN114565715A (zh) 用于三维变电站模型复用的渲染方法、装置和计算机设备
CN116912348A (zh) 伪彩色图像生成方法、装置、计算机设备和存储介质
CN114092607A (zh) 图像的动画展示方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40071571

Country of ref document: HK