CN110148201A - 一种超高精度的织物实时渲染方法 - Google Patents

一种超高精度的织物实时渲染方法 Download PDF

Info

Publication number
CN110148201A
CN110148201A CN201910328145.7A CN201910328145A CN110148201A CN 110148201 A CN110148201 A CN 110148201A CN 201910328145 A CN201910328145 A CN 201910328145A CN 110148201 A CN110148201 A CN 110148201A
Authority
CN
China
Prior art keywords
fabric
precision
real
time rendering
rendering method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910328145.7A
Other languages
English (en)
Other versions
CN110148201B (zh
Inventor
王锐
鲍虎军
赵爽
徐超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910328145.7A priority Critical patent/CN110148201B/zh
Publication of CN110148201A publication Critical patent/CN110148201A/zh
Application granted granted Critical
Publication of CN110148201B publication Critical patent/CN110148201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种超高精度的织物实时渲染方法,包括:对目标织物样本进行扫描获得原始数据;将原始数据分为顶部飞线层和底部表面层;将飞线层以极为优化的链表式空间存储方案进行存储;将底部表面层以低精度高度图和高精度法线、切线图进行存储;对顶部及底部原始数据分别进行聚类,并对每个类进BTF采样从而拟合获得每个聚类簇的BRDF参数;基于获得的BRDF进行LOD预处理;对织物样本进行切割并根据最终的织物的纹理样式进行重构得到排列表;进行最终渲染。该方法解决了目前无法在实时绘制领域进行超高精度织物绘制的问题,极大的提高了实时绘制中织物的真实感,并且保持了较高的绘制效率。

Description

一种超高精度的织物实时渲染方法
技术领域
本发明涉及实施绘制技术领域,具体涉及一种超高精度的织物实时渲染方法。
背景技术
在实时绘制领域,复杂材质的光照的计算对于最终生成图像的真实感起到了至关重要的作用,在电影工业,游戏制作,虚拟现实等领域中具有广泛的需求和应用。尤其是服装和织物外观真实感渲染的应用越来越广泛,并成为一个研究的热点。然而,绘制出具有照片级别的织物外观效果依旧具有很大地挑战性。因此具有照片级别真实度的织物渲染技术具有极高的商业价值和学术价值。
传统的织物渲染方法把织物建模为一个简单的二维平面或者参数曲面,并使用纹理和贴图来模拟出布料的外观。然而,随着计算机硬件水平的发展和渲染技术的进步,由于传统的织物渲染方法忽略了织物的真实几何结构,使得其渲染结果缺乏真实性。同时,传统的织物渲染方法会使得织物在近距离观察时失真,缺失大量的布料细节。
如何对织物进行建模,从而构建真实丰富的织物外观是值得研究的问题。另外,实现基于微外观模型的相关技术,真实感渲染出实际常见的织物物品,对目前的应用和研究有一定价值。
现有的织物渲染技术方案为基于纹理映射的织物渲染方法,该织物渲染方法是把织物几何模型建模为一张或多张三维曲面,并且手动或半自动化地构造织物的纹理图片,在渲染的过程中使用双向纹理函数来构造织物的外观细节。但是该方法存在以下缺点:
首先,基于纹理映射的织物渲染方法尽管具有实时渲染的效率,缺忽略了织物本身的几何构造,在近距离观察时会造成很大的失真。
此外,基于纹理映射的织物渲染方法的纹理材质图片需要通过手动或者半自动化来构造,使得制造成本提高。
申请公布号为CN108694739A的专利申请公开了一种基于微外观模型的织物真实感外观渲染系统及方法,系统包括织物模型构建模块、织物模型合成模块、体纹理映射模块以及渲染模块,通过结合纤维级别的织物样本体素模型和织物照片,系统自动构建出可渲染的织物体外观模型。同时,系统采用基于物理的渲染方法,对织物进行渲染,可生成出高真感的织物图片。该方法中,纹理数据来自于纤维级别的织物样本体素模型和织物照片,会造成渲染后的真实感和细节上有所欠缺。
因此,迫切地,需要一种能够提升真实感和细节精度的渲染绘制方法。
发明内容
本发明的目的是提供一种超高精度的织物实时渲染方法,该方法通过控制织物采集过程,和纹理数据的获得,提升了绘制织物的真实感和细节精度,且在渲染绘制过程中,能够动态改变材质。
为实现上述发明目的,提供以下技术方案:
一种超高精度的织物实时渲染方法,包括以下步骤:
(1)获取目标织物样本的原始数据,该原始数据包含了目标织物样本的每一根编织线的方向以及密度,并以三维体素的形式进行存储;
(2)将原始数据分为顶部飞线层和底部表面层;
(3)将顶部飞线层改成稀疏链表的形式进行存储,将底部表面层以低精度高度图、高精度法线图以及高精度切线图进行存储;
(4)在顶部飞线层、底部表面层中存储表示织物材质属性的BRDF参数;
(5)根据获得的BRDF参数对顶部飞线层、底部表面层进行LOD预处理,并获得每层级的LOD预处理结果图的BRDF参数;
(6)对目标织物样本进行切割,并以排列组合获得的结果最接近目标织物样本为目标,对切割获得的样本进行排列组合,以构建目标织物的纹理样式以及纹理样式对应的排列表;
(7)根据步骤(6)获得的排列表以及层级的LOD预处理结果图的BRDF参数对织物模型进行光照渲染。
本发明提供的超高精度的织物实时渲染方法,能够实时性的渲染超高精度的织物,解决了目前无法在实时绘制领域进行超高精度织物绘制的问题,极大的提高了实时绘制中织物的真实感,并且保持了较高的绘制效率。
一种超高精度的织物实时渲染方法,包括以下步骤:
根据上述超高精度的织物实时渲染方法获得每层级对应的BRDF参数;
改变BRDF参数;
利用改变的BRDF参数对织物进行实时渲染。
该超高精度的织物实时渲染方法中,已经获得的BRDF参数可以作为材质库存储起来,应用时,通过改变某些参数可以动态地调整材质,利用调整后的材质进行实时渲染,这样能够节省渲染的时间,提升绘制效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是超高精度的织物实时渲染方法的流程图;
图2是对原始数据进行分层及分层结果示意图;
图3是建立的局部半球坐标系的示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了提升对织物渲染的真实感和精细度,本发明提供一种高精度的织物实时渲染方法,如图1所示,具体包括以下步骤:
S101,取目标织物样本的原始数据,该原始数据包含了目标织物样本的每一根编织线的方向以及密度,并以三维体素的形式进行存储。
该步骤中,以含有整个目标织物的所有颜色、形状以及材质的区域作为目标织物样本,并采用micro-CT扫描仪对目标织物样本进行超高分辨率的三维断层扫描,获得扫描点的方向信息以及密度信息,该方向信息以及密度信息作为原始数据。
因为目标织物样本是代表目标织物的,因此,在选择目标织物样本时,目标织物样本要覆盖目标织物的所有信息,具体地选择含有整个目标织物的所有颜色、形状以及材质的区域作为目标织物样本,这样根据目标织物样本获得的BRDF参数很全面,为后续渲染提供了全面可靠的材质,以提升渲染的真实性。
原始数据是以三维体素的形式进行存储,即以(x,y,z)表示的体素形式的进行存储,但是本发明中获得原始数据还包括密度信息,因此,本实施例中原始数据以(x,y,z,ρ)形式存储,其中,根据x,y,z信息即可以获得编织线的方向,ρ表示编织线的密度。
S102,将原始数据分为顶部飞线层和底部表面层。
织物的顶部和底部会呈现出不同的纹理样式,为了较准确、清楚地获得织物的材质信息,需要将目标织物进行分层,具体地,分层方法为:
针对每个体素点,满足以下两个分层条件时即进行分层:
分层条件1:体素点在垂直方向上距离织物表面或毛线的距离至少大于8个体素;
分层条件2:体素点与该体素点附近邻域内体素平均值相差4个体素以上或8个体素以上,同时,体素点与该体素点附近邻域内体素的方差相差4个体素以上或8个体素以上;
将满足分层条件1和分层条件2的体素点分离出来,形成顶部飞线层;
将原始数据转化为高度图,该高度图即表示底部表面层。
本实施例中,体素点附近邻域是指该体素点在体素数据中空间上的附近其他体素点。分离的示意图如图2所示,其中,Volume表示采集到的体素数据,Flyaways表示飞线层,Height Field表示高度图。
S103,将顶部飞线层改成稀疏链表的形式进行存储,将底部表面层以低精度高度图、高精度法线图以及高精度切线图进行存储。
为了优化存储结构,大大降低数据的存储量,对顶部飞线层和底部表面层进行优化存储,具体地,
针对顶部飞线层,建立两张包含R(red)、G(green)、B(blue)、A(alpha)通道的纹理,分别为T1纹理和T2纹理,T1纹理的每个通道存储了对应飞线的起始高度,T2纹理的每个通道存储了对应飞线的终止高度,从而T1纹理和T2纹理对应体素的高度差就是垂直方向上飞线的长度。
针对底部表面层,进行以下处理:
对底部表面层对应的高度图进行滤波平滑获得低精度高度图;
比较滤波平滑处理后的高度图与原高度图,将每个像素的偏差作为细节以法线图的形式存储,即获得高精度法线图;
直接将高度图转化为三维体素表示,即可以获得高精度切线图。
本实施例中,可以选择高斯滤波对原高度图进行去噪处理,即可以获得低精度高度图。根据高度矩阵中每个元素点的位置信息(x,y)即可以从对应的原始数据中体素点(x,y,z),这样直接可以获得高精度切线图了。
S104,在顶部飞线层、底部表面层中存储表示织物材质属性的BRDF参数;
具体地,对以稀疏链表存储的顶部飞线层对应的原始数据、以低精度高度图、高精度法线图以及高精度切线图对应的原始数据进行聚类,以每个聚类簇的聚类中心作为中心样本点,对中心样本点进行高密度BTF采样,并根据采样数据拟合获得每个聚类簇的BRDF参数,进而获得顶部飞线层、底部表面层对应的BRDF参数。
本实施例中,需要分别对顶部分线层的原始数据、低精度高度图、高精度法线图以及高精度切线图这四类数据进行聚类,以聚类中心作为中心样本点进行高密度BTF采样,具体地,对中心样本点进行高密度BTF采样的具体过程为:
针对每一个中心样本点,建立以其法线为中间轴的半球面,以及以其法线和切线所构成的局部半球坐标系,在局部半球坐标系内,根据极坐标分布入射光方向和出射观测方向,遍历半球面上所有入射光方向和出射观测方向的组合,以获得采样数据。
具体建立的局部半球坐标系如图3所示,其中,t是当前渲染织物的线条方向,ωi和ωo是BRDF中的入射方向和出射方向,n是当前渲染点在法线图中的法线方向。确定n和t之后,可以建立一个经过n且垂直于t的平面(图3中菱形所示),θi和θo表示入射方向、出射方向分别与平面的夹角,表示入射方向、出射方向投影到平面后和法线n的夹角。
本实施例中,所述的高密度BTF采样可以是对BRDF的入射和出射方向分别进行遍历,并对遍历的结果进行排列组合,依据排列组合的结果进行渲染,得到高密度BTF数据。
S105,根据获得的BRDF参数对顶部飞线层、底部表面层进行LOD预处理,并获得每层级的LOD预处理结果图的BRDF参数。
为了加速后续的渲染速度,需要对顶部飞线层、底部表面层进行预处理,具体过程如下:
按照层级的顺序分别对顶部飞线层、底部表面层进行LOD预处理,并对每层级对应的LOD预处理后的结果图,并对层级结果图进行聚类,以每个聚类簇的聚类中心作为中心样本点,对中心样本点进行高密度BTF采样,并根据采样得到的数据拟合获得每个聚类簇的BRDF参数,进而获得每个层级结果图对应的BRDF参数。
本步骤中,对每个层级的LOD预处理后的结果图进行聚类、BTF采样以及BRDF参数获取具体过程与S104中的相同,在此不再赘述。
S106,对目标织物样本进行切割,并以排列组合获得的结果最接近目标织物样本为目标,对切割获得的样本进行排列组合,以构建目标织物的纹理样式以及纹理样式对应的排列表。
该步骤中,以先切割再重组的方式获得纹理样式的排列表,这样为后续渲染提供了渲染顺序。
S107,根据S106获得的排列表以及层级的LOD预处理结果图的BRDF参数对织物模型进行光照渲染。
在实际应用中,该织物实时渲染方法的实现环境包括一前端采集器和一后端处理器,其前端采集器主要用于织物目标样本的原始数据的采集,其后端处理器主要用于对目标织物的实时渲染,由于整个渲染方法在保证渲染真实性和精度的前提下,数据量相对较小,因此,能够实现实时渲染。
该织物实时渲染方法能够实时性地渲染超高精度的织物,解决了目前无法在实时绘制领域进行超高精度织物绘制的问题,极大地提高了实时绘制中织物的真实感,并且保持了较高的绘制效率。
本实施例还体用了另外一种超高精度的织物实时渲染方法,包括以下步骤:
根据上述超高精度的织物实时渲染方法中S101~S106获得每层级对应的BRDF参数;
改变BRDF参数;
利用改变的BRDF参数对织物进行实时渲染。
第一种超高精度的织物实时渲染方法中,获得了一系列的BRDF参数,对该系列的BRDF参数进行存储,当需要对相同织物或者类似织物(如颜色发生改变)进行渲染时,只需对BRDF参数中每个变量进行修改调整,利用调整后的材质进行实时渲染,这样能够节省渲染的时间,提升绘制效率。
通过对织物进行采集和拟合,得到了该织物的BRDF特性,获得该特性后可以实时的改变织物形状,颜色,花纹等信息,从而让使用者可以看到其它信息(如不同颜色)下的织物渲染结果,而不需要再重新采样。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种超高精度的织物实时渲染方法,包括以下步骤:
(1)获取目标织物样本的原始数据,该原始数据包含了目标织物样本的每一根编织线的方向以及密度,并以三维体素的形式进行存储;
(2)将原始数据分为顶部飞线层和底部表面层;
(3)将顶部飞线层改成稀疏链表的形式进行存储,将底部表面层以低精度高度图、高精度法线图以及高精度切线图进行存储;
(4)在顶部飞线层、底部表面层中存储表示织物材质属性的BRDF参数;
(5)根据获得的BRDF参数对顶部飞线层、底部表面层进行LOD预处理,并获得每层级的LOD预处理结果图的BRDF参数;
(6)对目标织物样本进行切割,并以排列组合获得的结果最接近目标织物样本为目标,对切割获得的样本进行排列组合,以构建目标织物的纹理样式以及纹理样式对应的排列表;
(7)根据步骤(6)获得的排列表以及层级的LOD预处理结果图的BRDF参数对织物模型进行光照渲染。
2.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(1)中,以含有整个目标织物的所有颜色、形状以及材质的区域作为目标织物样本,并采用micro-CT扫描仪对目标织物样本进行超高分辨率的三维断层扫描,获得扫描点的方向信息以及密度信息,该方向信息以及密度信息作为原始数据。
3.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(2)中,针对每个体素点,满足以下两个分层条件时即进行分层:
分层条件1:体素点在垂直方向上距离织物表面或毛线的距离至少大于8个体素;
分层条件2:体素点与该体素点附近邻域内体素平均值相差4个体素以上或8个体素以上,同时,体素点与该体素点附近邻域内体素的方差相差4个体素以上或8个体素以上;
将满足分层条件1和分层条件2的体素点分离出来,形成顶部飞线层;
将原始数据转化为高度图,该高度图即表示底部表面层。
4.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(3)中,建立两张包含R、G、B、A通道的纹理,分别为T1和T2,T1纹理的每个通道存储了对应飞线的起始高度,T2纹理的每个通道存储了对应飞线的终止高度,从而T1纹理和T2纹理对应体素的高度差就是垂直方向上飞线的长度。
5.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(3)中,对底部表面层对应的高度图进行滤波平滑获得低精度高度图;
比较滤波平滑处理后的高度图与原高度图,将每个像素的偏差作为细节以法线图的形式存储,即获得高精度法线图;
直接将高度图转化为三维体素表示,即可以获得高精度切线图。
6.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(4)中,对以稀疏链表存储的顶部飞线层对应的原始数据、以低精度高度图、高精度法线图以及高精度切线图对应的原始数据进行聚类,以每个聚类簇的聚类中心作为中心样本点,对中心样本点进行高密度BTF采样,并根据采样数据拟合获得每个聚类簇的BRDF参数,进而获得顶部飞线层、底部表面层对应的BRDF参数。
7.如权利要求6所述的超高精度的织物实时渲染方法,其特征在于,对中心样本点进行高密度BTF采样的具体过程为:
针对每一个中心样本点,建立以其法线为中间轴的半球面,以及以其法线和切线所构成的局部半球坐标系,在局部半球坐标系内,根据极坐标分布入射光方向和出射观测方向,遍历半球面上所有入射光方向和出射观测方向的组合,以获得采样数据。
8.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(5)中,按照层级的顺序分别对顶部飞线层、底部表面层进行LOD预处理,并对每层级对应的LOD预处理后的结果图,并对层级结果图进行聚类,以每个聚类簇的聚类中心作为中心样本点,对中心样本点进行高密度BTF采样,并根据采样得到的数据拟合获得每个聚类簇的BRDF参数,进而获得每个层级结果图对应的BRDF参数。
9.如权利要求1所述的超高精度的织物实时渲染方法,其特征在于,步骤(7)中,渲染时,根据渲染目标点的属性,选择对应的层级BRDF参数,按照排列表进行渲染。
10.一种超高精度的织物实时渲染方法,包括以下步骤:
根据权利要求1~8任一项所述的超高精度的织物实时渲染方法获得每层级对应的BRDF参数;
改变BRDF参数;
利用改变的BRDF参数对织物进行实时渲染。
CN201910328145.7A 2019-04-23 2019-04-23 一种超高精度的织物实时渲染方法 Active CN110148201B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910328145.7A CN110148201B (zh) 2019-04-23 2019-04-23 一种超高精度的织物实时渲染方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910328145.7A CN110148201B (zh) 2019-04-23 2019-04-23 一种超高精度的织物实时渲染方法

Publications (2)

Publication Number Publication Date
CN110148201A true CN110148201A (zh) 2019-08-20
CN110148201B CN110148201B (zh) 2020-12-25

Family

ID=67593872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910328145.7A Active CN110148201B (zh) 2019-04-23 2019-04-23 一种超高精度的织物实时渲染方法

Country Status (1)

Country Link
CN (1) CN110148201B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369658A (zh) * 2020-03-24 2020-07-03 北京畅游天下网络技术有限公司 一种渲染方法及装置
CN113112582A (zh) * 2021-04-20 2021-07-13 浙江凌迪数字科技有限公司 一种真实感服装渲染中的侧光织物面料实时渲染方法
CN113596278A (zh) * 2021-08-03 2021-11-02 广东时谛智能科技有限公司 一种面料数字化快速扫描系统、方法、介质及设备
CN117058301A (zh) * 2023-06-29 2023-11-14 武汉纺织大学 一种基于延迟着色的针织物实时渲染方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831643A (zh) * 2012-09-20 2012-12-19 山东大学 一种用Micro-CT建立纱线彩色三维模型的方法
CN105844695A (zh) * 2016-03-18 2016-08-10 山东大学 一种基于真实材质测量数据的光照建模方法
CN106296779A (zh) * 2015-05-19 2017-01-04 深圳市腾讯计算机系统有限公司 一种三维模型渲染显示方法及系统
CN107292946A (zh) * 2017-06-14 2017-10-24 浙江大学 一种基于brdf函数线性过滤的图像渲染方法
CN107392234A (zh) * 2017-07-05 2017-11-24 北京航空航天大学 一种基于单张4d光场图像的物体表面材质类型识别方法
CN108694739A (zh) * 2018-04-26 2018-10-23 中山大学 基于微外观模型的织物真实感外观渲染系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831643A (zh) * 2012-09-20 2012-12-19 山东大学 一种用Micro-CT建立纱线彩色三维模型的方法
CN106296779A (zh) * 2015-05-19 2017-01-04 深圳市腾讯计算机系统有限公司 一种三维模型渲染显示方法及系统
CN105844695A (zh) * 2016-03-18 2016-08-10 山东大学 一种基于真实材质测量数据的光照建模方法
CN107292946A (zh) * 2017-06-14 2017-10-24 浙江大学 一种基于brdf函数线性过滤的图像渲染方法
CN107392234A (zh) * 2017-07-05 2017-11-24 北京航空航天大学 一种基于单张4d光场图像的物体表面材质类型识别方法
CN108694739A (zh) * 2018-04-26 2018-10-23 中山大学 基于微外观模型的织物真实感外观渲染系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIAHUA ZHANG等: "IDSS: A Novel Representation", 《IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS》 *
KUI WU等: "Real-Time Cloth Rendering with", 《IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS》 *
SHUANG ZHAO等: "Fitting Procedural Yarn Models for Realistic Cloth Rendering", 《ACM TRANSACTIONS ON GRAPHICS》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369658A (zh) * 2020-03-24 2020-07-03 北京畅游天下网络技术有限公司 一种渲染方法及装置
CN111369658B (zh) * 2020-03-24 2024-02-02 北京畅游天下网络技术有限公司 一种渲染方法及装置
CN113112582A (zh) * 2021-04-20 2021-07-13 浙江凌迪数字科技有限公司 一种真实感服装渲染中的侧光织物面料实时渲染方法
CN113112582B (zh) * 2021-04-20 2022-07-12 浙江凌迪数字科技有限公司 一种真实感服装渲染中的侧光织物面料实时渲染方法
CN113596278A (zh) * 2021-08-03 2021-11-02 广东时谛智能科技有限公司 一种面料数字化快速扫描系统、方法、介质及设备
CN113596278B (zh) * 2021-08-03 2024-01-09 广东时谛智能科技有限公司 一种面料数字化快速扫描系统、方法、介质及设备
CN117058301A (zh) * 2023-06-29 2023-11-14 武汉纺织大学 一种基于延迟着色的针织物实时渲染方法
CN117058301B (zh) * 2023-06-29 2024-03-19 武汉纺织大学 一种基于延迟着色的针织物实时渲染方法

Also Published As

Publication number Publication date
CN110148201B (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN110148201A (zh) 一种超高精度的织物实时渲染方法
CN107636585B (zh) 通过在虚拟现实环境内部绘图而进行的三维时尚对象的产生
CN104036532B (zh) 基于三维到二维服装图案无缝映射的服装制作方法
US7167177B2 (en) Macrostructure modeling with microstructure reflectance slices
Yunchu et al. Prototype garment pattern flattening based on individual 3D virtual dummy
CN104268145B (zh) 一种复杂矢量数据的地图快速绘制方法
CN108335352A (zh) 一种面向多视图大规模三维重建场景的纹理映射方法
Groller et al. Modeling and visualization of knitwear
US7616201B2 (en) Casting shadows
Zhao Application of 3D CAD in landscape architecture design and optimization of hierarchical details
CN101564209A (zh) 服装在线人体尺寸测量方法
CN112365584B (zh) 一种在三维服装模型上生成印花效果的方法
CN109584364A (zh) 一种基于倾斜三维模型的2.5维电子地图的生成方法及装置
CN1828671A (zh) 基于图像的服装虚拟展示系统中的网格纹理映射方法
CN113421338A (zh) 一种将二维矢量进行三维渲染的方法
CN109308380A (zh) 基于非真实感的刺绣艺术风格模拟方法
Du Application of CAD aided intelligent technology in landscape design
CN110033507A (zh) 模型贴图的内描线绘制方法、装置、设备及可读存储介质
CN114596409A (zh) 一种带纹理的人脸三维网格模型获取方法
CN105957141B (zh) 一种基于对称结构的三维花朵建模方法
CN103679794B (zh) 模拟三维素描铅笔画的绘制方法
Tian 3D modeling and digital preservation of ancient architectures based on autoCAD and 3Dmax
Xu et al. PointWorks: Abstraction and Rendering of Sparsely Scanned Outdoor Environments.
ELNASHAR NanoArt as Multidisciplinary of Nanotechnology with Novel Art for Fashion and Interior Design
CN114638926A (zh) 一种三维场景自动生成系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant