CN112598770B - 一种基于模型三维坐标空间的实时贴花渲染方法及其系统 - Google Patents
一种基于模型三维坐标空间的实时贴花渲染方法及其系统 Download PDFInfo
- Publication number
- CN112598770B CN112598770B CN202011527858.5A CN202011527858A CN112598770B CN 112598770 B CN112598770 B CN 112598770B CN 202011527858 A CN202011527858 A CN 202011527858A CN 112598770 B CN112598770 B CN 112598770B
- Authority
- CN
- China
- Prior art keywords
- decal
- model
- vertex
- texture
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Generation (AREA)
Abstract
本发明提供了一种基于模型三维坐标空间的实时贴花渲染方法,所述方法为:步骤S1、将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;步骤S2、完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;步骤S3、删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。本发明对于模型的制作以及三维空间的深度复杂度没有苛刻的要求,具有更广泛的适用性。
Description
技术领域
本发明涉及动画制作技术领域,特别是一种基于模型三维坐标空间的实时贴花渲染方法及其系统。
背景技术
现有的贴花技术有两种主流方案:基于模型UV信息的贴花方案和基于屏幕空间深度信息的贴花方案。基于模型UV信息的贴花方案贴花清晰度会受到三维模型的UV影响。造成模型上不同区域贴花效果不可控的情况,并且对三维模型制作要求苛刻;基于屏幕空间深度信息的贴画方案虽然对三维模型制作没有苛刻的要求。但是在屏幕空间深度数据不连续的地方,会造成贴花拉伸现象,因此不适合于深度信息变化复杂的模型。
纹理坐标通常具有U和V两个坐标轴,因此称之为UV坐标。U代表横向坐标上的分布、V代表纵向坐标上的分布。
发明内容
为克服上述问题,本发明的目的是提供一种基于模型三维坐标空间的实时贴花渲染方法,在保证贴花正确渲染的前提下,系统整体性能消耗更小,准确率更高。
本发明采用以下方案实现:一种基于模型三维坐标空间的实时贴花渲染方法,所述方法包括如下步骤:
步骤S1、将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;
步骤S2、完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;
步骤S3、删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。
进一步的,所述步骤S1进一步具体包括如下步骤:
步骤S11、将被贴花的目标模型原始文件复制一份,修改模型属性为多边形面碰撞模型,该多边形面碰撞模型用于获取鼠标点击位置;
步骤S12、将目标模型顶点的三维空间位置坐标(x,y,z),作为顶点位置纹理的(R,G,B)颜色值,保存到顶点位置纹理中;
步骤S13、通过鼠标点击多边形面碰撞模型,获取到当前点击点的三维空间位置坐标。
进一步的,所述步骤S2进一步具体为包括如下步骤:
步骤S21、将获取到当前对应点击点的三维空间位置坐标与顶点位置纹理中的颜色值进行比较,由于顶点位置纹理的颜色值其实就是目标模型顶点的三维空间位置坐标,因此两个位置坐标相减即能得到当前点击点与目标模型顶点各个顶点的距离,如果当前绘制的目标模型顶点距离小于用户设定的贴花半径R值,则进入步骤S22;否则正常渲染目标顶点模型,并结束流程;
步骤S22、绘制目标模型顶点距离小于用户设定的贴花半径R值时,进行公式计算得出贴花UV坐标后,对贴花纹理进行寻址查询,设最终颜色值为cf,贴花颜色为ct,原始模型颜色为co,贴花alpha值为a,则用最终模型颜色混合公式:
cf=co·(1-a)+ct·a⑦
步骤S23、根据公式⑦渲染出带有贴花的纹理。
进一步的,所述公式计算得出贴花UV坐标具体为:
根据世界空间位置坐标计算贴花UV在目标模型的UV空间分布,设定贴花在目标模型上的三维空间位置坐标为tp,当前光栅化模型顶点位置为vp,当前光栅化模型顶点与贴花三维空间位置坐标组成的向量为则:
世界参考向量为 与/>的向量积为/>在目标模型顶点的法线为/>则有:
根据与法线/>夹角Φ的大小进行分类,设定贴花三维空间位置坐标到当前光栅化模型顶点的距离为/>设定贴花半径为R,有UV计算公式如下:
由公式⑤⑥可得贴花UV坐标,使用贴花UV坐标对UV图案进行纹理寻址就能绘制出贴花纹理。
本发明还提供了一种基于模型三维坐标空间的实时贴花渲染系统,所述系统包括模型数据处理模块、贴花渲染模块以及模型还原模块;
所述模型数据处理模块,用于将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;
所述贴花渲染模块,完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;
所述模型还原模块,用于删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。
进一步的,所述模型数据处理模块进一步包括模型属性修改单元、顶点位置处理单元、点击点的坐标获取单元;
所述模型属性修改单元,用于将被贴花的目标模型原始文件复制一份,修改模型属性为多边形面碰撞模型,该多边形面碰撞模型用于获取鼠标点击位置;
所述顶点位置处理单元,用于将目标模型顶点的三维空间位置坐标(x,y,z),作为顶点位置纹理的(R,G,B)颜色值,保存到顶点位置纹理中;
所述点击点的坐标获取单元,通过鼠标点击多边形面碰撞模型,获取到当前点击点的三维空间位置坐标。
进一步的,所述贴花渲染模块的实现方式进一步具体为:
将获取到当前对应点击点的三维空间位置坐标与顶点位置纹理中的颜色值进行比较,由于顶点位置纹理的颜色值其实就是目标模型顶点的三维空间位置坐标,因此两个位置坐标相减即能得到当前点击点与目标模型顶点各个顶点的距离,如果当前绘制的目标模型顶点距离大于用户设定的贴花半径R值,则正常渲染目标顶点模型,并结束流程;
如果绘制目标模型顶点距离小于用户设定的贴花半径R值时,进行公式计算得出贴花UV坐标后,对贴花纹理进行寻址查询,设最终颜色值为cf,贴花颜色为ct,原始模型颜色为co,贴花alpha值为a,则用最终模型颜色混合公式:
cf=co·(1-a)+ct·a⑦
根据公式⑦渲染出带有贴花的纹理。
进一步的,所述公式计算得出贴花UV坐标具体为:
根据世界空间位置坐标计算贴花UV在目标模型的UV空间分布,设定贴花在目标模型上的三维空间位置坐标为tp,当前光栅化模型顶点位置为vp,当前光栅化模型顶点与贴花三维空间位置坐标组成的向量为则:
世界参考向量为 与/>的向量积为/>在目标模型顶点的法线为/>则有:
根据与法线/>夹角Φ的大小进行分类,设定贴花三维空间位置坐标到当前光栅化模型顶点的距离为/>设定贴花半径为R,有UV计算公式如下:
由公式⑤⑥可得贴花UV坐标,使用贴花UV坐标对UV图案进行纹理寻址就能绘制出贴花纹理。
本发明的有益效果在于:本专利通过顶点世界空间位置坐标,实时计算贴花UV坐标,贴花纹理通过实时计算的UV进行纹理映射;相较于基于模型UV信息的贴花方案和基于屏幕空间深度信息的贴画方案,本专利采用的方法对于模型的制作以及三维空间的深度复杂度没有苛刻的要求,具有更广泛的适用性。在保证贴花正确渲染的前提下,公式算法性能消耗更小,准确率更高。
附图说明
图1是本发明的方法流程示意图。
图2是本发明一实施例的方法流程示意图。
图3A是本发明一实施例的目标模型示意图。
图3B是本发明一实施例的贴花在目标模型上的UV分布示意图。
图3C是本发明一实施例的目标模型进行贴花后的效果图。
图4是本发明的系统原理框图。
具体实施方式
下面结合附图对本发明做进一步说明。
请参阅图1所示,本发明的一种基于模型三维坐标空间的实时贴花渲染方法,所述方法包括如下步骤:
步骤S1、将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;
步骤S2、完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;
步骤S3、删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。
下面结合一具体实施例对本发明做进一步说明:
如图2所示,本发明的一种基于模型三维坐标空间的实时贴花渲染方法,
实施步骤分三大阶段:模型数据处理阶段,贴花渲染阶段和模型还原阶段。
如图3A、3B、3C所示,模型数据处理阶段主要完成两个内容:将被贴花的目标模型的模型顶点数据存储在纹理中;获取贴花在目标模型上的三维空间位置坐标
1.将目标模型原始文件复制一份,修改模型属性为多边形面碰撞模型。方便获取鼠标点击位置。
2.将目标模型顶点的三维空间位置坐标(x,y,z),作为顶点位置纹理的(R,G,B)颜色值,保存到顶点位置纹理中。
3.通过鼠标点击多边形面碰撞模型,获取到当前点击点的三维空间位置坐标。
贴花渲染阶段主要完成贴花UV计算和贴花纹理寻址与纹理合成两个内容。
1.将获取到当前对应点击点的三维位置坐标与顶点位置纹理中的颜色值进行比较,由于顶点位置纹理的颜色值其实就是目标模型顶点的三维空间位置坐标,因此两个位置坐标相减即可得到当前点击点与目标模型顶点各个顶点的距离,如果当前绘制的目标模型顶点距离小于用户设定的贴花半径R值走贴花UV坐标计算逻辑。否则正常渲染目标顶点模型。
贴花UV坐标,所述公式计算得出贴花UV坐标具体为:
根据世界空间位置坐标计算贴花UV在目标模型的UV空间分布,设定贴花在目标模型上的三维空间位置坐标为tp,当前光栅化模型顶点位置为vp,当前光栅化模型顶点与贴花三维空间位置坐标组成的向量为则:
世界参考向量为 与/>的向量积为/>在目标模型顶点的法线为/>则有:
根据与法线/>夹角Φ的大小进行分类,设定贴花三维空间位置坐标到当前光栅化模型顶点的距离为/>设定贴花半径为R,有UV计算公式如下:
由公式⑤⑥可得贴花UV坐标,使用贴花UV坐标对UV图案进行纹理寻址就能绘制出贴花纹理。
2.绘制目标模型顶点小于用户设定的R值时,根据公式⑤⑥计算出贴花UV后,对贴花纹理进行寻址查询,设最终颜色值为cf,贴花颜色为ct,原始模型颜色为co,贴花alpha值为a,则用最终模型颜色混合公式:
cf=co·(1-a)+ct·a⑦
3.根据公式⑦渲染出带有贴花的纹理。
模型还原阶段,删除冗余的贴花中间数据(该中间数据即为多边形面碰撞模型,删除冗余的贴花中间数据,因为在正常渲染流程中,是不需要渲染出多边形面碰撞模型。),将公式⑦所得的贴花纹理替换模型的原始贴图,得到带贴花的纹理材质。
如图4所示,本发明还提供了一种基于模型三维坐标空间的实时贴花渲染系统,所述系统包括模型数据处理模块、贴花渲染模块以及模型还原模块;
所述模型数据处理模块,用于将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;
所述贴花渲染模块,完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;
所述模型还原模块,用于删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。
所述模型数据处理模块进一步包括模型属性修改单元、顶点位置处理单元、点击点的坐标获取单元;
所述模型属性修改单元,用于将被贴花的目标模型原始文件复制一份,修改模型属性为多边形面碰撞模型,该多边形面碰撞模型用于获取鼠标点击位置;
所述顶点位置处理单元,用于将目标模型顶点的三维空间位置坐标(x,y,z),作为顶点位置纹理的(R,G,B)颜色值,保存到顶点位置纹理中;
所述点击点的坐标获取单元,通过鼠标点击多边形面碰撞模型,获取到当前点击点的三维空间位置坐标。
所述贴花渲染模块的实现方式进一步具体为:
将获取到当前对应点击点的三维空间位置坐标与顶点位置纹理中的颜色值进行比较,由于顶点位置纹理的颜色值其实就是目标模型顶点的三维空间位置坐标,因此两个位置坐标相减即能得到当前点击点与目标模型顶点各个顶点的距离,如果当前绘制的目标模型顶点距离大于用户设定的贴花半径R值,则正常渲染目标顶点模型,并结束流程;
如果绘制目标模型顶点距离小于用户设定的贴花半径R值时,进行公式计算得出贴花UV坐标后,对贴花纹理进行寻址查询,设最终颜色值为cf,贴花颜色为ct,原始模型颜色为co,贴花alpha值为a,则用最终模型颜色混合公式:
cf=co·(1-a)+ct·a⑦
根据公式⑦渲染出带有贴花的纹理。
所述公式计算得出贴花UV坐标具体为:
根据世界空间位置坐标计算贴花UV在目标模型的UV空间分布,设定贴花在目标模型上的三维空间位置坐标为tp,当前光栅化模型顶点位置为vp,当前光栅化模型顶点与贴花三维空间位置坐标组成的向量为则:
世界参考向量为 与/>的向量积为/>在目标模型顶点的法线为/>则有:
根据与法线/>夹角Φ的大小进行分类,设定贴花三维空间位置坐标到当前光栅化模型顶点的距离为/>设定贴花半径为R,有UV计算公式如下:
由公式⑤⑥可得贴花UV坐标,使用贴花UV坐标对UV图案进行纹理寻址就能绘制出贴花纹理。
总之,本专利通过顶点世界空间位置坐标,实时计算贴花UV坐标,贴花纹理通过实时计算的UV进行纹理映射;相较于基于模型UV信息的贴花方案和基于屏幕空间深度信息的贴画方案,本专利采用的方法对于模型的制作以及三维空间的深度复杂度没有苛刻的要求,具有更广泛的适用性。在保证贴花正确渲染的前提下,公式算法性能消耗更小,准确率更高。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (4)
1.一种基于模型三维坐标空间的实时贴花渲染方法,其特征在于:所述方法包括如下步骤:
步骤S1、将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;所述步骤S1进一步具体包括如下步骤:
步骤S11、将被贴花的目标模型原始文件复制一份,修改模型属性为多边形面碰撞模型,该多边形面碰撞模型用于获取鼠标点击位置;
步骤S12、将目标模型顶点的三维空间位置坐标(x,y,z),作为顶点位置纹理的(R,G,B)颜色值,保存到顶点位置纹理中;
步骤S13、通过鼠标点击多边形面碰撞模型,获取到当前点击点的三维空间位置坐标;步骤S2、完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;
所述步骤S2进一步具体为包括如下步骤:
步骤S21、将获取到当前对应点击点的三维空间位置坐标与顶点位置纹理中的颜色值进行比较,由于顶点位置纹理的颜色值其实就是目标模型顶点的三维空间位置坐标,因此两个位置坐标相减即能得到当前点击点与目标模型顶点各个顶点的距离,如果当前绘制的目标模型顶点距离小于用户设定的贴花半径R值,则进入步骤S22;否则正常渲染目标顶点模型,并结束流程;
步骤S22、绘制目标模型顶点距离小于用户设定的贴花半径R值时,进行公式计算得出贴花UV坐标后,对贴花纹理进行寻址查询,设最终颜色值为cf,贴花颜色为ct,原始模型颜色为co,贴花alpha值为a,则用最终模型颜色混合公式:
cf=co·(1a)+ct·a⑦
步骤S23、根据公式⑦渲染出带有贴花的纹理;
步骤S3、删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。
2.根据权利要求1所述的一种基于模型三维坐标空间的实时贴花渲染方法,其特征在于:所述公式计算得出贴花UV坐标具体为:
根据世界空间位置坐标计算贴花UV在目标模型的UV空间分布,设定贴花在目标模型上的三维空间位置坐标为tp,当前光栅化模型顶点位置为vp,当前光栅化模型顶点与贴花三维空间位置坐标组成的向量为则:
世界参考向量为与/>的向量积为/>在目标模型顶点的法线为/>则有:
根据与法线/>夹角Φ的大小进行分类,设定贴花三维空间位置坐标到当前光栅化模型顶点的距离为/>设定贴花半径为R,有UV计算公式如下:
由公式⑤⑥可得贴花UV坐标,使用贴花UV坐标对UV图案进行纹理寻址就能绘制出贴花纹理。
3.一种基于模型三维坐标空间的实时贴花渲染系统,其特征在于:所述系统包括模型数据处理模块、贴花渲染模块以及模型还原模块;
所述模型数据处理模块,用于将被贴花的目标模型的模型顶点数据存储在纹理中,获取贴花在目标模型上的三维空间位置坐标;
所述模型数据处理模块进一步包括模型属性修改单元、顶点位置处理单元、点击点的坐标获取单元;
所述模型属性修改单元,用于将被贴花的目标模型原始文件复制一份,修改模型属性为多边形面碰撞模型,该多边形面碰撞模型用于获取鼠标点击位置;所述顶点位置处理单元,用于将目标模型顶点的三维空间位置坐标(x,y,z),作为顶点位置纹理的(R,G,B)颜色值,保存到顶点位置纹理中;
所述点击点的坐标获取单元,通过鼠标点击多边形面碰撞模型,获取到当前点击点的三维空间位置坐标;
所述贴花渲染模块,完成贴花UV坐标计算和贴花纹理寻址操作,并渲染出带有贴花的纹理;
所述贴花渲染模块的实现方式进一步具体为:
将获取到当前对应点击点的三维空间位置坐标与顶点位置纹理中的颜色值进行比较,由于顶点位置纹理的颜色值其实就是目标模型顶点的三维空间位置坐标,因此两个位置坐标相减即能得到当前点击点与目标模型顶点各个顶点的距离,如果当前绘制的目标模型顶点距离大于用户设定的贴花半径R值,则正常渲染目标顶点模型,并结束流程;
如果绘制目标模型顶点距离小于用户设定的贴花半径R值时,进行公式计算得出贴花UV坐标后,对贴花纹理进行寻址查询,设最终颜色值为cf,贴花颜色为ct,原始模型颜色为co,贴花alpha值为a,则用最终模型颜色混合公式:
cf=co·(1a)+ct·a⑦
根据公式⑦渲染出带有贴花的纹理;
所述模型还原模块,用于删除贴花中冗余的数据,将得的贴花的纹理替换目标模型的原始贴图,得到带贴花的纹理材质。
4.根据权利要求3所述的一种基于模型三维坐标空间的实时贴花渲染系统,其特征在于:所述公式计算得出贴花UV坐标具体为:
根据世界空间位置坐标计算贴花UV在目标模型的UV空间分布,设定贴花在目标模型上的三维空间位置坐标为tp,当前光栅化模型顶点位置为vp,当前光栅化模型顶点与贴花三维空间位置坐标组成的向量为则:
世界参考向量为与/>的向量积为/>在目标模型顶点的法线为/>则有:
根据与法线/>夹角Φ的大小进行分类,设定贴花三维空间位置坐标到当前光栅化模型顶点的距离为/>设定贴花半径为R,有UV计算公式如下:
由公式⑤⑥可得贴花UV坐标,使用贴花UV坐标对UV图案进行纹理寻址就能绘制出贴花纹理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011527858.5A CN112598770B (zh) | 2020-12-22 | 2020-12-22 | 一种基于模型三维坐标空间的实时贴花渲染方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011527858.5A CN112598770B (zh) | 2020-12-22 | 2020-12-22 | 一种基于模型三维坐标空间的实时贴花渲染方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112598770A CN112598770A (zh) | 2021-04-02 |
CN112598770B true CN112598770B (zh) | 2023-08-08 |
Family
ID=75200002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011527858.5A Active CN112598770B (zh) | 2020-12-22 | 2020-12-22 | 一种基于模型三维坐标空间的实时贴花渲染方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112598770B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113398583A (zh) * | 2021-07-19 | 2021-09-17 | 网易(杭州)网络有限公司 | 游戏模型的贴花渲染方法、装置、存储介质及电子设备 |
CN113947657A (zh) * | 2021-10-18 | 2022-01-18 | 网易(杭州)网络有限公司 | 目标模型的渲染方法、装置、设备及存储介质 |
CN114419233A (zh) * | 2021-12-31 | 2022-04-29 | 网易(杭州)网络有限公司 | 模型生成方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637089A (zh) * | 2015-02-15 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 三维模型数据处理方法和装置 |
CN108062784A (zh) * | 2018-02-05 | 2018-05-22 | 深圳市易尚展示股份有限公司 | 三维模型纹理贴图转换方法与装置 |
CN109794062A (zh) * | 2019-01-15 | 2019-05-24 | 珠海金山网络游戏科技有限公司 | 一种实现mmo游戏地表贴花的方法及其装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10592242B2 (en) * | 2018-07-20 | 2020-03-17 | Cesium GS, Inc. | Systems and methods for rendering vector data on static and dynamic-surfaces using screen space decals and a depth texture |
-
2020
- 2020-12-22 CN CN202011527858.5A patent/CN112598770B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637089A (zh) * | 2015-02-15 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 三维模型数据处理方法和装置 |
CN108062784A (zh) * | 2018-02-05 | 2018-05-22 | 深圳市易尚展示股份有限公司 | 三维模型纹理贴图转换方法与装置 |
CN109794062A (zh) * | 2019-01-15 | 2019-05-24 | 珠海金山网络游戏科技有限公司 | 一种实现mmo游戏地表贴花的方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112598770A (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112598770B (zh) | 一种基于模型三维坐标空间的实时贴花渲染方法及其系统 | |
US9117267B2 (en) | Systems and methods for marking images for three-dimensional image generation | |
US20070002043A1 (en) | Triangulating procedural geometric objects | |
US7948488B2 (en) | Shape preserving mappings to a surface | |
US20050093875A1 (en) | Synthesis of progressively-variant textures and application to arbitrary surfaces | |
KR20050030595A (ko) | 화상 처리 장치 및 그 방법 | |
WO1995022122A1 (en) | Real-time image generation system for simulating physical paint, drawing media, and feature modeling with 3-d graphics | |
US20200312007A1 (en) | Artificial intelligence based virtual object aging | |
CN105046735B (zh) | 一种基于基元分布的三维表面纹理合成方法 | |
CN105678683A (zh) | 一种三维模型的二维存储方法 | |
Nießner et al. | Real‐time rendering techniques with hardware tessellation | |
CN116958453B (zh) | 基于神经辐射场的三维模型重建方法、设备和介质 | |
CN104249221A (zh) | 激光加工模具表面的方法 | |
CN106504317A (zh) | 一种三维模型的外观纹理提取方法及装置 | |
KR20050030569A (ko) | 화상 처리 장치 및 그 방법 | |
JP2003256865A (ja) | 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム | |
JP2003271984A (ja) | レンダリングシステム、レンダリング方法及びその記録媒体 | |
CN102521870A (zh) | 一种微多边形光线跟踪的着色重用方法 | |
CN114359226A (zh) | 基于分层叠加和区域增长的三维模型组可视面积提取方法 | |
CN113781642A (zh) | 一种基于减面算法的三维模型多层级lod的生成方法 | |
CN112465962A (zh) | 一种面向大场景三维实景数据的动态更新方法 | |
US20230206573A1 (en) | Method of learning a target object by detecting an edge from a digital model of the target object and setting sample points, and method of augmenting a virtual model on a real object implementing the target object using the learning method | |
CN114972612B (zh) | 一种基于三维简化模型的图像纹理生成方法及相关设备 | |
CN108986212B (zh) | 一种基于裂缝消除的三维虚拟地形lod模型的生成方法 | |
CN112632679B (zh) | 建筑信息模型场景渲染方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |