CN112419157A - 一种基于生成对抗网络的布料超分辨率方法 - Google Patents
一种基于生成对抗网络的布料超分辨率方法 Download PDFInfo
- Publication number
- CN112419157A CN112419157A CN202011380011.9A CN202011380011A CN112419157A CN 112419157 A CN112419157 A CN 112419157A CN 202011380011 A CN202011380011 A CN 202011380011A CN 112419157 A CN112419157 A CN 112419157A
- Authority
- CN
- China
- Prior art keywords
- resolution
- tensor
- cloth
- gan
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000004744 fabric Substances 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 51
- 238000004088 simulation Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 9
- 239000000126 substance Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/16—Cloth
Abstract
本发明公开了一种基于生成对抗网络的布料超分辨率方法,包括以下步骤:对一块矩形布料在同样环境下分别做高分辨率和低分辨率的模拟,生成两组网格;将两组网格分别转换为低分辨率张量和高分辨率张量;将所述低分辨率张量作为GAN的输入,高分辨率张量作为GAN输出的理想值,训练GAN的参数。再将需超分辨率的低分辨率布料转换成张量作为所述训练后的GAN的输入,训练后的GAN输出低分辨率布料对应的张量;将所述低分辨率布料的张量转换成网格,得到所述低分辨率布料对应的高分辨率布料。本发明基于数据驱动的方法求解超分辨率的布料,有利于发现布料空间分布的本质规律,从而获得更合理的结果;同时相比基于全连接层网络的方法,本发明有更高的运行效率。
Description
技术领域
本发明涉及计算机图形学和机器学习技术领域,特别是涉及一种基于生成对抗网络的布料超分辨率方法。
背景技术
机器学习技术是指用先验知识和过往的经验来提升算法性能的一类技术,目前已经有三十多年的历史。近年来,有关机器学习的研究和应用井喷式增长,包括汽车、金融、医学等各个领域都有机器学习的身影。其中GAN(generative adversarial network,生成对抗网络)是机器学习技术中一种优秀的方法,其采用一种对抗式的方法学习生成模型,不依赖任何先验假设就可以得到优秀的结果。GAN的应用促进了图像生成领域的发展。
计算机图形学中的布料模拟技术是一种通过计算机模拟表现真实布料物理行为的技术。布料模拟技术起源于1992年Michel Carignan的一篇论文“Dressing animatedSynthetic Actors with Complex Deformable Clothes”。布料模拟技术的出现使得计算机能够呈现布料的拉伸、弯曲、剪切等物理特性,增加了动画、游戏、计算机辅助设计中衣物、窗帘等布料的真实感。如今,随着布料模拟技术不断发展,越来越多的优秀方法被提出,布料模拟技术也已经应用在计算机辅助设计的各个方面。
最初的布料模拟技术只能求解布料在给定约束下处于静止稳定状态的形状。随着计算机图形学的发展,出现了可以求出布料变化的整个运动过程的弹簧质点模型、可以模拟应变-应力之间复杂的非线性关系的连续体模型等布料的模拟方法。此外为了提升模型的稳定性和收敛性,有限元等方法也取得了突破性的进展。除了这些典型的基于物理和数学模型的模拟方法,现阶段出现了一种新的模拟方法,该模拟方法利用从现实场景或者模拟软件中获得的数据建立布料运动的模型,发现布料运动的规律,从而对布料进行模拟。
不管是弹簧质点模型、有限元模型和一些其他的方法建立的模型,其运行效率和布料的分辨率(顶点数)有很大的关系。一般来说,分辨率越高,模拟所需的时间就越长,且模拟的时长随着分辨率的增高而大幅度拉长。因此为了提高布料模拟的效率,需要一种能通过低分辨率的布料生成对应的高分辨率布料的方法,这样就可以在低分辨率的情况下进行模拟,再输出高分辨率的结果,从而在模拟质量损失较小的条件下提升模拟的效率。
用双线性插值或双二次函数插值等插值方法也可以完成布料超分辨率的任务,但是这些插值方法会生成过于平滑的布料网格,从而导致类似把深的褶皱变平的效果。由于这些插值方法没有利用布料在空间中的分布规律,也就是额外的信息,所以生成的网格不一定符合布料本身的规律,这便是传统布料超分辨率的局限性。
公开号为CN 110189253 A的说明书公开了一种基于改进生成对抗网络的图像超分辨率重建方法,包括如下步骤:收集大量2k像素高质量图片,从中截取大量HR块,通过4倍下采样的方式得到对应的LR块,以此构建训练数据集;建立生成对抗网络模型,生成器网络G采用残差网络,条件判别器D同样采用残差网络;用相对判别器的思想改进生成对抗网络的训练损失函数,并在生成器损失函数中加入内容损失,在判别器损失函数中加入基于假数据的梯度惩罚项,再使用处理好的的训练数据集并采用Adam优化器对网络进行对抗训练,直到其收敛;由训练好的生成器网络完成对低像素图像的4倍超分辨率重建。该发明主要针对图像进行超分辨率重建,其主要改善了GAN训练的稳定性。
公开号为CN 111008930 A的说明书公开了一种织物图像超分辨率重建方法。本发明首先对采集到的图像进行分组并下采样,然后利用生成对抗网络GAN和Resnet50网络的基本结构,搭建一个SRGAN网络,再利用预处理的织物图像作为输入对网络分三步进行训练。训练完成后用测试数据集进行测试,用PSNR评价网络性能。该发明主要面向织物图像的超分辨率重建,其本质还是针对平面图像,提取织物上的图像使其转换为高分辨率的图片以提取信息。
发明内容
本发明的目的在于提供了一种基于生成对抗网络的布料超分辨率方法,该方法基于机器学习中的GAN和图形学中的计算几何等技术,在布料上实现了高质量和高鲁棒性的超分辨率方法。
一种基于生成对抗网络的布料超分辨率方法,包括训练阶段和应用阶段;
所述训练阶段包括以下步骤:
(1)对一块矩形布料在同样环境下分别做高分辨率和低分辨率的模拟,生成对应的两组网格;
(2)将步骤(1)模拟产生的两组网格分别转换为低分辨率张量和高分辨率张量;
(3)将所述低分辨率张量作为GAN的输入,所述高分辨率张量作为GAN输出的理想值,训练GAN的参数;若GAN未收敛,则回到步骤(1);若GAN收敛,则结束训练并保存得到的训练后的GAN;
所述训练阶段完成后,进行应用阶段,所述应用阶段包括以下步骤:
(4)将需超分辨率的低分辨率布料转换成张量作为所述训练后的GAN的输入,训练后的GAN输出所述低分辨率布料对应的张量;
(5)将所述低分辨率布料的张量转换成网格,得到所述低分辨率布料对应的高分辨率布料。
训练阶段,即用模拟软件生成同一块布在高低分辨率下、同样形态的对应模拟结果;利用规则网格的拓扑特性,用一个张量记录网格的全部信息,并储存成文件以便GAN读取;GAN的结构和训练,GAN的结构利用了布料具有的空间特性,也就是曲率来作为输入,训练过程是利用损失函数对GAN的生成器和判别器的参数进行反复的梯度下降的过程,最后保存训练好的网络。应用阶段,将低分辨率的网格按上述方法转换成张量作为GAN生成器的输入,GAN生成器会输出一个张量;将张量按照同样的方法转换为网格,得到超分辨率的布料网格。
所述步骤(1)中的矩形布料具有规整的网格拓扑;即,除边界上的所有顶点都具有相同的度。
优选地,所述步骤(1)中矩形布料在同样环境下进行高分辨率和低分辨率的模拟,所述模拟的方法包括弹簧质点法、有限元等其他常规的布料模拟方法。
所述步骤(2)中,所述张量包括位置张量和曲率张量,将网格转换为张量的具体步骤为:
选取矩形布料的任意两条相交的边,以其中一边为第一指标,另一边为第二指标,遍历矩形布料的所有的顶点;将所述顶点的空间坐标(x,y,z)填到同样形状的矩阵的对应位置中形成一个位置张量;
求出网格上所有的顶点的主曲率,采用同样方法再次遍历矩形布料的所有的顶点,并将顶点的主曲率(κ1,κ2)填到同样形状的矩阵的对应位置中形成一个曲率张量。
所述GAN包括生成器和判别器;所述低分辨率张量作为GAN的输入时,所述低分辨率张量首先输入所述生成器,经运算生成器输出高分辨率张量的位置张量;将所述高分辨率张量的位置张量输入判别器,所述判别器输出一个分数,该分数表征了输入的高分辨率张量的位置张量是否符合布料的分布规律。
所述生成器由一个线性插值层,若干个残差块顺序相接构成,每一个残差块由一个卷积层和一个激活层组成;线性插值层将位置张量和曲率张量扩展;残差块将曲率张量进行卷积和非线性变换,生成一个位置增量张量和位置增量相加,得到新的位置张量,之后进行若干次残差计算。
所述判别器由若干个卷积层和激活层交替连接而成,由两个全连接层生成最后的判定结果,所述判定结果的数值的大小表示该布料是所述生成器产生的可能性。
所述步骤(3)的具体步骤为:先训练若干次所述的判别器,再将训练好的所述判别器的参数固定以训练一次所述的生成器,以上构成一个训练循环。整体的训练过程中,这样的循环通常在一万次以上。
训练生成器时所用的损失函数如下:
其中,
训练判别器时所用的损失函数如下:
其中,分别表示同一块布在同一环境下的低分辨率和高分辨率下的网格顶点i的坐标;分别表示所述生成器和判别器的作用;N,κ分别表示拉普拉斯算子,法线算子和离散曲率算子;w1,w2,w3,w4,w5是用于调节相应损失权重的参数,其数值可取0以屏蔽某项损失带来的影响。
用两个网格逐点相减的范数,两个网格拉普拉斯逐点相减的范数,两个网格逐点曲率相减的范数,两个网格法线逐点相减的范数的综合指标来评估网格之间的差异性。在参数一样的情况下,所述损失函数计算所得的损失值越小越好。
优选地,当GAN在连续若干个(通常取100)训练循环里没有一次取得更好的损失值时,认为此时网络已经收敛。停止训练并保存损失值最小时的网络。当训练循环次数已经超过预设的上限时,也需要停止训练并保存损失最小时的网络。
所述步骤(5)中,GAN输出的张量转换成网格的具体步骤如下:保持张量作为矩阵的拓扑,将矩阵元素上的三维向量等同网格中的空间坐标,从而得到顶点的坐标和拓扑关系,生成一个高分辨率的网格。
相比现有技术,本发明的优点在于:
1、基于数据驱动的方法求解超分辨率的布料,有利于发现布料空间分布的本质规律,从而获得更合理的结果。
2、采用了卷积层结构,对布料尺寸和形态的鲁棒性更强,能适应更多情况,且更能利用局部的信息。
3、相比起一些基于全连接层网络的方法,本发明的方法有更高的运行效率。
附图说明
图1为本发明基于生成对抗网络的布料超分辨率方法的流程示意图;
图2为本发明实施例进行布料超分辨率的输入的照片;
图3为本发明实施例进行布料超分辨率的真实解的照片;
图4为本发明实施例中GAN的生成器网络的结构示意图;
图5为本发明实施例中GAN的判别器网络的结构示意图;
图6为本发明实施例中网格和张量之间互相转换的流程示意图;
图7为本发明实施例进行布料超分辨率的输出的照片。
具体实施方式
一种基于生成对抗网络的布料超分辨率方法,包括训练阶段和应用阶段;
训练阶段包括以下步骤:
(1)对一块矩形布料在同样环境下分别做高分辨率和低分辨率的模拟,生成对应的两组网格;
(2)将步骤(1)模拟产生的两组网格分别转换为低分辨率张量和高分辨率张量;
(3)将低分辨率张量作为GAN的输入,高分辨率张量作为GAN输出的理想值,训练GAN的参数;若GAN未收敛,则回到步骤(1);若GAN收敛,则结束训练并保存得到的训练后的GAN;
所述训练阶段完成后,进行应用阶段,应用阶段包括以下步骤:
(4)将需超分辨率的低分辨率布料转换成张量作为训练后的GAN的输入,训练后的GAN输出低分辨率布料对应的张量;
(5)将低分辨率布料的张量转换成网格,得到低分辨率布料对应的高分辨率布料。
下面以图2所示布料为例,进行说明:
如图1~3所示,进行步骤(1),用户使用模拟软件分别生成同一块布在高分辨率和低分辨率下的两组模拟结果,导出为obj格式作为训练数据的一对。用户可以选择一次生成多组模拟结果作为训练数据,也可以每训练一个周期生成一组新的训练数据。
进行步骤(2),将步骤(1)生成的所有obj转换成张量,以便GAN处理,每个网格转换为张量的具体步骤如下:
如图6所示,选取矩形布料的任意两条相交的边,以其中一边为第一指标,另一边为第二指标,遍历矩形布料的所有的顶点;将所有的顶点的空间坐标(x,y,z)填到同样形状的矩阵的对应位置中形成一个位置张量;
求出网格上所有的顶点的主曲率,采用同样方法再次遍历矩形布料的所有的顶点,并将顶点的主曲率(κ1,κ2)填到同样形状的矩阵的对应位置中形成一个曲率张量;
将上述低分辨率张量作为GAN生成器的输入,高分辨率张量作为GAN生成器输出的理想值,训练GAN的参数,若GAN网络未收敛,则回到(1),否则结束训练,并保存得到的GAN网络。
GAN包括生成器和判别器;低分辨率张量作为GAN的输入时,低分辨率张量首先输入到生成器,经运算生成器输出高分辨率的位置张量;将高分辨率的位置张量输入判别器,判别器输出一个分数,该分数表征了输入的高分辨率的位置张量是否符合布料的分布规律。
如图4所示,生成器由一个线性插值层,若干个残差块顺序相接构成;每一个残差块由一个卷积层和一个激活层组成。线性插值层会将位置张量和曲率张量扩展成更大的尺寸,其中需要预估的值利用其相邻元素的线性插值。残差块会将曲率张量进行卷积和非线性变换,最后生成一个位置增量张量和位置增量相加,得到新的位置张量,之后进行若干次残差计算。
如图5所示,判别器由若干个卷积层和激活层交替连接而成,由两个全连接层生成最后的判定结果,所述判定结果的数值的大小表示该布料是所述生成器产生的可能性。
训练生成器时所用的损失函数如下:
其中,
训练判别器时所用的损失函数如下:
其中,分别表示同一块布在同一环境下的低分辨率和高分辨率下的网格顶点i的坐标;分别表示所述生成器和判别器的作用;N,κ分别表示拉普拉斯算子,法线算子和离散曲率算子;w1,w2,w3,w4,w5是用于调节相应损失权重的参数,其数值可取0以屏蔽某项损失带来的影响。
用两个网格逐点相减的范数,两个网格拉普拉斯逐点相减的范数,两个网格逐点曲率相减的范数,两个网格法线逐点相减的范数的综合指标来评估网格之间的差异性。在参数一样的情况下,损失函数计算所得的损失值越小越好。
训练一般需要大量的数据和循环次数,一般来说,要求训练数据的网格的尺寸大于100*100,且不同形态的种类数大于20组。循环次数上限最好超过一万,以保证网格收敛。
进行步骤(4),训练完成后,输入一个低分辨率的规则布料网格,首先按照步骤(2)的方法将其转变为两个张量,再将张量作为GAN生成器的输入。此时不训练GAN,不对GAN的参数进行梯度下降。
如图6所示,进行步骤(5),GAN的生成器输出一个张量,这个张量相比作为输入的位置张量长宽都大了两倍,其中具体倍数取决于用户希望放大的倍数和网络的结构,将张量转换成网格。
如图7所示,该网格就是超分辨率后的网格。
Claims (10)
1.一种基于生成对抗网络的布料超分辨率方法,其特征在于,包括训练阶段和应用阶段;
所述训练阶段包括以下步骤:
(1)对一块矩形布料在同样环境下分别做高分辨率和低分辨率的模拟,生成对应的两组网格;
(2)将步骤(1)模拟产生的两组网格分别转换为低分辨率张量和高分辨率张量;
(3)将所述低分辨率张量作为GAN的输入,所述高分辨率张量作为GAN输出的理想值,训练GAN的参数;若GAN未收敛,则回到步骤(1);若GAN收敛,则结束训练并保存得到的训练后的GAN;
所述训练阶段完成后,进行应用阶段,所述应用阶段包括以下步骤:
(4)将需超分辨率的低分辨率布料转换成张量作为所述训练后的GAN的输入,训练后的GAN输出所述低分辨率布料对应的张量;
(5)将所述低分辨率布料的张量转换成网格,得到所述低分辨率布料对应的高分辨率布料。
2.根据权利要求1所述的基于生成对抗网络的布料超分辨率方法,其特征在于,所述步骤(1)中的矩形布料具有规整的网格拓扑。
3.根据权利要求1所述的基于生成对抗网络的布料超分辨率方法,其特征在于,所述步骤(2)中,所述张量包括位置张量和曲率张量,将网格转换为张量的具体步骤为:
选取矩形布料的任意两条相交的边,以其中一边为第一指标,另一边为第二指标,遍历矩形布料的所有的顶点;将所述顶点的空间坐标(x,y,z)填到同样形状的矩阵的对应位置中,形成一个位置张量;
求出网格上所有的顶点的主曲率,采用同样方法再次遍历矩形布料的所有的顶点,并将顶点的主曲率(κ1,κ2)填到同样形状的矩阵的对应位置中形成一个曲率张量。
4.根据权利要求3所述的基于生成对抗网络的布料超分辨率方法,其特征在于,所述GAN包括生成器和判别器;所述低分辨率张量作为GAN的输入时,所述低分辨率张量首先输入所述生成器,经运算生成器输出高分辨率张量的位置张量;将所述高分辨率张量的位置张量输入判别器,所述判别器输出一个分数,该分数表征了输入的高分辨率张量的位置张量是否符合布料的分布规律。
5.根据权利要求4所述的基于生成对抗网络的布料超分辨率方法,其特征在于,所述生成器由一个线性插值层,若干个残差块顺序相接构成,每一个残差块由一个卷积层和一个激活层组成;线性插值层将位置张量和曲率张量扩展;残差块将曲率张量进行卷积和非线性变换,生成一个位置增量张量和位置增量相加,得到新的位置张量,之后进行若干次残差计算。
6.根据权利要求4所述的基于生成对抗网络的布料超分辨率方法,其特征在于,所述判别器由若干个卷积层和激活层交替连接而成,由两个全连接层生成最后的判定结果,所述判定结果的数值的大小表示该布料是所述生成器产生的可能性。
7.根据权利要求1所述的基于生成对抗网络的布料超分辨率方法,其特征在于,所述步骤(3)的具体步骤为:先训练若干次所述的判别器,再将训练好的判别器的参数固定以训练一次生成器,以上步骤构成一个训练循环。
9.根据权利要求8所述的基于生成对抗网络的布料超分辨率方法,其特征在于,GAN在连续若干个训练循环里没有一次取得低于预设的损失值或训练循环次数已经超过预设的上限时,认为此时网络已经收敛,停止训练并保存得出损失值最小时的网络。
10.根据权利要求1所述的基于生成对抗网络的布料超分辨率方法,其特征在于,GAN输出的张量转换成网格的具体步骤如下:张量作为矩阵的拓扑,将矩阵元素上的三维向量等同网格中的空间坐标,得到顶点的坐标和拓扑关系,生成一个高分辨率的网格。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011380011.9A CN112419157B (zh) | 2020-11-30 | 2020-11-30 | 一种基于生成对抗网络的布料超分辨率方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011380011.9A CN112419157B (zh) | 2020-11-30 | 2020-11-30 | 一种基于生成对抗网络的布料超分辨率方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112419157A true CN112419157A (zh) | 2021-02-26 |
CN112419157B CN112419157B (zh) | 2024-04-02 |
Family
ID=74828938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011380011.9A Active CN112419157B (zh) | 2020-11-30 | 2020-11-30 | 一种基于生成对抗网络的布料超分辨率方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419157B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190096135A1 (en) * | 2017-09-26 | 2019-03-28 | Aquifi, Inc. | Systems and methods for visual inspection based on augmented reality |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111145280A (zh) * | 2019-12-06 | 2020-05-12 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种oct图像散斑抑制方法 |
-
2020
- 2020-11-30 CN CN202011380011.9A patent/CN112419157B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190096135A1 (en) * | 2017-09-26 | 2019-03-28 | Aquifi, Inc. | Systems and methods for visual inspection based on augmented reality |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN111145280A (zh) * | 2019-12-06 | 2020-05-12 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种oct图像散斑抑制方法 |
Non-Patent Citations (6)
Title |
---|
HUIJIAN HAN 等: "One method of cloth simulation based on adaptive meshes", 2016 12TH INTERNATIONAL CONFERENCE ON COMPUTATIONAL INTELLIGENCE AND SECURITY (CIS)》, 19 January 2017 (2017-01-19) * |
STAVROS PAPADOPOULOS 等: "Modelling of Material Ageing with Generative Adversarial Networks", 《2018 IEEE 13TH IMAGE, VIDEO, AND MULTIDIMENSIONAL SIGNAL PROCESSING WORKSHOP (IVMSP)》, 30 August 2018 (2018-08-30) * |
YOSHIHISA TSURUMINE 等: "Generative Adversarial Imitation Learning with Deep P-Network for Robotic Cloth Manipulation", 《2019 IEEE-RAS 19TH INTERNATIONAL CONFERENCE ON HUMANOID ROBOTS (HUMANOIDS)》, 16 March 2020 (2020-03-16) * |
沈才樑 等: "基于局部自适应混合积分的动态布料模拟快速方法", 《计算机应用研究》, 15 July 2012 (2012-07-15) * |
石敏 等: "服装动画中人体运动与服装变形的相关性学习", 《计算机辅助设计与图形学学报》, 15 October 2017 (2017-10-15) * |
谷大鹏 等: "机织物三维仿真中组织模块化快速构建", 《纺织学报》, 15 January 2014 (2014-01-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN112419157B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7388811B2 (ja) | オートエンコーダの学習 | |
Yuksel et al. | Stitch meshes for modeling knitted clothing with yarn-level detail | |
Shi et al. | A fast multigrid algorithm for mesh deformation | |
Wang et al. | Learning an intrinsic garment space for interactive authoring of garment animation | |
CN110728219B (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
Ma et al. | Image superresolution via dense discriminative network | |
CN106067161A (zh) | 一种对图像进行超分辨的方法 | |
CN105427360B (zh) | 一种动态网格的误差可控cage序列表示算法 | |
CN114662172B (zh) | 一种基于神经网络的服装布料动态仿真模拟方法 | |
CN114463511A (zh) | 一种基于Transformer解码器的3D人体模型重建方法 | |
CN115564649B (zh) | 一种图像超分辨率重建方法、装置及设备 | |
JP2762000B2 (ja) | 曲面生成方法および曲面生成装置 | |
CN112215755A (zh) | 一种基于反投影注意力网络的图像超分辨率重建方法 | |
CN111028335B (zh) | 一种基于深度学习的点云数据的分块面片重建方法 | |
JP4714444B2 (ja) | 四面体メッシュ生成方法およびプログラム | |
Huang et al. | Efficient mesh deformation using tetrahedron control mesh | |
CN109002630B (zh) | 一种超弹性材料的快速仿真方法 | |
CN110176063A (zh) | 一种基于人体拉普拉斯变形的服装变形方法 | |
CN103839233A (zh) | 一种相机抖动造成的模糊图像复原方法 | |
CN112419157B (zh) | 一种基于生成对抗网络的布料超分辨率方法 | |
CN112380764A (zh) | 一种在有限视图下的气体场景端到端快速重建方法 | |
Rashid et al. | Single MR image super-resolution using generative adversarial network | |
Hu et al. | Actual morphing: a physics-based approach to blending. | |
Agarwal et al. | GAMesh: Guided and augmented meshing for deep point networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |