CN107895398B - 结合视觉显著性的浮雕编辑方法 - Google Patents
结合视觉显著性的浮雕编辑方法 Download PDFInfo
- Publication number
- CN107895398B CN107895398B CN201711163839.7A CN201711163839A CN107895398B CN 107895398 B CN107895398 B CN 107895398B CN 201711163839 A CN201711163839 A CN 201711163839A CN 107895398 B CN107895398 B CN 107895398B
- Authority
- CN
- China
- Prior art keywords
- model
- dimensional
- dimensional model
- relief
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 87
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000011159 matrix material Substances 0.000 claims abstract description 74
- 230000006835 compression Effects 0.000 claims abstract description 60
- 238000007906 compression Methods 0.000 claims abstract description 60
- 238000009499 grossing Methods 0.000 claims abstract description 25
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000005484 gravity Effects 0.000 claims description 33
- 238000013507 mapping Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000013178 mathematical model Methods 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 102000016904 Armadillo Domain Proteins Human genes 0.000 description 7
- 108010014223 Armadillo Domain Proteins Proteins 0.000 description 7
- 241000289632 Dasypodidae Species 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000013216 cat model Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010422 painting Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2008—Assembling, disassembling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了结合视觉显著性的浮雕编辑方法,其具体步骤是:输入三维模型,构造视点球;根据三维模型的最佳视角,结合摄影构图原理实现模型的组合排列;根据空间权重矩阵,对最佳视角下的三维模型进行平滑处理;通过拉普拉斯算子矩阵实现最佳视角下的三维模型的细节提取;利用三维网格模型双曲正切函数对原始三维模型的高频域部分进行非线性压缩;曲面参数化实现将三维模型在目标曲面上的附着;添加高频域完成三维模型与目标曲面的粘贴。本发明首次提出通过摄影构图原理与视觉显著信息相结合生成组合浮雕的方法,获得了艺术鉴赏价值较高的组合浮雕。
Description
技术领域
本发明属于计算机图形学技术领域,具体涉及结合视觉显著性的浮雕编辑方法。
背景技术
浮雕是一种在平面上雕刻出高低起伏变化形象的雕塑,是一种介于立体雕塑和平面绘画之间的艺术展示形式。浮雕的图案形状丰富多样,它既代表着中华民族的悠久历史、社会的发展进步,也是世界文化艺术宝库中的巨大财富。浮雕的空间结构既表现了三维立体形态,又兼具某种平面形态;既可以依附于某种载体,又可相对独立地存在。作为雕塑艺术的种类之一,浮雕能很好地发挥绘画艺术在构图、题材和空间处理等方面的优势,譬如事件和人物的背景与环境、不同时空视角的自由切换、复杂多样事物的穿插和重叠等。平面上的雕凿与塑造,使浮雕可以综合雕塑与绘画的技术优势。二维空间中的透视缩减,陪衬主体形象的背景刻画或虚拟,使浮雕的塑造语言比之其它雕塑尤其是圆雕,具有更强的叙事性同时也不失一般雕塑的表现性。
三维数字浅浮雕的生成算法可以划分为两类:一类是利用二维图像生成浅浮雕,由于二维图像不具有深度信息,所以一般选择深度图像、强度图像等包含深度信息的图像作为研究对象,或是利用图像分割、三维重建等技术从简单的二维图像中生成浮雕;另一类是基于三维模型生成浅浮雕,在观察视点确定后选定能反映模特征的投影方向,将模型映射在平面或曲面上来生成浮雕。从几何表达上,这类浮雕生成方法可以看成是一类将三维模型细节附着在平面或曲面背景上的复杂曲面,其附着的背景被称作目标曲面。目前的研究工作大多关注于利用单个模型生成浮雕并映射在平面或简单曲面上,进而生成浅浮雕。前人在此方面的研究成果已经在浮雕细节保持丰富,算法适应性和浮雕效果等方面达到比较完善的程度,然而对于组合浮雕的研究仍停留在简单的重叠模型生成浮雕,不具备较高的艺术鉴赏价值。
发明内容
针对上述存在的技术不足,本发明的目的是提供结合视觉显著性的浮雕编辑方法,以解决现有技术中存在的问题。
为解决上述技术问题,本发明采用如下技术方案:
本发明提供结合视觉显著性的浮雕编辑方法,其具体步骤是:
步骤一、输入三维模型,构造视点球:将原始三维模型导入以x、y以及z为坐标轴的三维坐标系中,并构造该模型的视点球,以视点球上的每个顶点作为观察视点;
步骤二、选择三维模型的最佳视角:通过视觉显著性计算三维模型的最佳视角;
步骤三、排列组合三维模型:计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值;如果场景中有一个模型,将模型的重心移至画面中心位置;如果场景中有两个模型,则将目标曲面分割成两个部分,设置右半部分占画面的三分之二,是画面的主体部分,左半部分次之,较高的浮雕模型置于主体部分的中心位置,较低的浮雕模型置于陪体部分的中心位置,根据三维模型的最佳视角,结合摄影构图原理实现模型的组合排列;
步骤四、获取空间权重矩阵:空间权重矩阵用来表示空间内点、线、面所占的权重比率,空间权重矩阵是基于空间内单元的临界性思想进行的,临界单元有两个表达值,分别用0和1表示,如果两个空间有相接壤的边界,那么对应的元素值为1,反之为0,并引入了两个空间单元相互潜在的影响测度,即采用空间权重矩阵W:
Wij=[dij]-T*[μij]b (1),
其中,dij是单元i和j之间的距离,μij表示单元i和j相接壤的部分占总单元i的比率;
步骤五、平滑处理:根据空间权重矩阵,对最佳视角下的三维模型进行平滑处理;
步骤六、细节提取:通过拉普拉斯算子矩阵实现最佳视角下的三维模型的细节提取;
步骤七、非线性压缩:利用三维网格模型双曲正切函数对原始三维模型的高频域部分进行非线性压缩;
步骤八、曲面参数化:曲面参数化是指调整非线性压缩后的三维模型与目标曲面之间的相对位置,使三维模型的可视面完全包含在目标曲面内,并建立三维模型和目标曲面之间的映射关系,实现将三维模型在目标曲面上的附着;
步骤九、添加高频域:为曲面参数化后的三维模型添加细节提取过程中生成的模型高频域部分,重建为三维模型,完成三维模型与目标曲面的粘贴。
优选地,所述步骤一中输入三维模型,构造视点球具体是指:
将原始三维模型导入以x、y以及z为坐标轴的三维坐标系中,根据三维模型的大小构建一个可以包围模型的视点球,视点球的直径设置为三维模型高度的三倍,对包围三维网格模型的视点球进行离散化得到视点球上的观察视点;根据模型是否包含面部信息选择不同的显著性模型,并使用视觉显著性模型计算三维模型的显著性评分。
优选地,所述步骤二中选择三维模型的最佳视角的具体步骤是:
步骤一、结合用户学习、参数优化和模型预测等因素,通过三维模型视角的属性ai计算最佳视角的多个数学模型,实现选择三维模型最佳观察视角,对于线性-K模型的通用表达式为:
其中,v是视点,s是用到的衡量特定模型的属性索引的集合|S|=K。相同视点下,对于不同的数学模型,可根据相应的权重值ωj,模型在该视点下的属性值aj,得到该视点的评价,进而可得三维模型的最佳观察视角,不同模型的视点属性的权重如下表1所示:
表1最佳视点选择显著性模型
a1 | a2 | a4 | a7 | a12 | a13 | |
Single | 23 | |||||
Linear-3 | 18 | 0.51 | 2.8 | |||
Linear-5 | 14 | 14 | 0.46 | 2.5 | 2.7 | |
Linear-5b | 15 | 2.6 | 0.42 | 13 | 670 |
其中,a1代表了在观察视角方向下三维模型的投影面积;a2代表了模型的表面可见度;a4代表了模型的投影轮廓长度;a7代表了模型的最大深度;a12代表了观察视点从视点球两级向赤道水平面的下降程度;a13代表了模型眼睛的可见度;
本发明实现了Linear-5类模型和Linear-5b类模型两个模型,用于解决不同种类的模型最佳视角选择。两类模型的计算如下式:
G1(v)=14*a1+14*a2+0.46*a4+2.5*a7+2.7*a12 (3),
G2(v)=13*a1+15*a2+0.42*a4+2.6*a12+670*a13 (4),
其中,G1(v)和G2(v)分别是Linear-5类模型和Linear-5b类模型的最佳视角评分。对于不同的模型选择不同的评分标准,例如,有眼睛的模型使用Linear-5b类模型进行评分;
步骤二:构造在每个视点观察下凹包,从而计算三维网格模型的投影面积和投影轮廓长度凹包,具体步骤是:
1)剔除当前视角v(p)下三维网格模型的不可见面片,即满足以下两个条件:
a)选出所有法向与视线法向夹角大于90度的面片,即反向面片
N(p)*v(p)>0 (5),
式中,N(p)表示网格面片的法向,v(p)表示视线方向法向;
b)删除不满足第一个条件的所有面片后,根据空间几何关系删除剩余的面片中的正向但被遮挡的顶点,即删除法向与视点的连线被其他面片遮挡的面片;
3)为Delaunay三角网M初始化所有边对象,并求取边的长度以及邻接三角形几何,其中邻接两个三角形的边为内部边,一个三角形的边为边界边,零个三角形的边为计算过程会退化的边;
4)将所有长度大于R的边界边加入队列,并当队列非空时循环下列过程:
a)从队列中去除一条边E,得到E的唯一邻接三角形T;
b)找到T中另外两个边E1、E2,并将他们的邻接三角形集合删除T;
c)将E1、E2中新形成的长度大于R边界边加入队列;
d)将E置无效标记,若E1、E2有退化的,也置无效标记;
5)收集所有有效的边界边,形成边列表ED,通过边列表ED构建的模型即为凹包。凹包的面积即为三维模型在该视角下的投影面积,凹包的边长即为模型的投影轮廓长度;
步骤三、将上述所得的模型的属性值代入相应的显著性类模型中,结果集中的最大值作为模型的最佳视角。
优选地,所述步骤三中排列组合三维模型的具体步骤是:
步骤一、根据下述公式(6)计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值:
其中,vij表示三维网格模型中第i个网格面的顶点坐标,m表示三维网格模型中第i个网格面的顶点数,Si表示该面的面积,N代表了三维模型中网格面片的数目;
步骤二、如果场景中有一个模型,将模型的重心移至画面中心位置
其中,v(x)1表示浮雕模型的x轴坐标,v(y)1表示浮雕模型的y轴坐标,表示目标曲面x轴方向最大坐标值,表示目标曲面x轴方向最小坐标值,表示目标曲面y轴方向最大坐标值,表示目标曲面y轴方向最小坐标值,mI1(x)表示浮雕模型重心的x轴坐标,mI1(y)表示浮雕模型重心的y轴坐标;
如果场景中有两个模型,则将目标曲面分割成两个部分,考虑到大部分模型都为站立或竖直方向,分割同样沿竖直方向分割。根据摄影构图的原则,“视觉重心”相较于画面左边更倾向于画面右边,所以设置右半部分占画面的三分之二,是画面的主体部分,左半个部分次之,根据最佳视角的计算结果或用户选择将评分较高的浮雕模型置于主体部分的中心位置,较低的浮雕模型置于陪体部分的中心位置;
其中,v(x)1表示主体浮雕模型的x轴坐标,v(y)1表示主体浮雕模型的y轴坐标,mI1(x)表示主体浮雕模型重心的x轴坐标,mI1(y)表示主体浮雕模型重心的y轴坐标,v(x)2表示陪体浮雕模型的x轴坐标,v(y)2表示陪体浮雕模型的y轴坐标,mI2(x)表示陪体浮雕模型重心的x轴坐标,mI2(y)表示陪体浮雕模型重心的y轴坐标;
优选地,所述步骤四中获取空间权重矩阵的这个过程主要是通过toolbox_graph工具包里面的comput_mesh_weight(V,F)函数实现的,在这个函数中,参数V代表了三维模型读出的数据中点的坐标信息,以矩阵的形式保存,参数F代表了三维模型的面数据,通过该函数可以得到三维模型的权重矩阵W。
优选地,所述步骤五中平滑处理具体是指:
利用空间权重矩阵对最佳视角下的三维模型进行平滑处理,空间权重矩阵即为网格模型顶点和周边单元权重比的矩阵,将空间权重矩阵和最佳视角下的三维模型的顶点矩阵的转置矩阵相乘,得到的结果再乘以空间权重矩阵,最后再整体进行一次转置,就可以得到平滑处理后的最佳视角下的三维模型的顶点坐标矩阵,公式如下:
V2=(W*(W*VT))T (13),
其中,V2表示最佳视角下的三维模型的低频域部分,W表示空间权重矩阵,V表示最佳视角下的三维模型的顶点矩阵,xi,yi,zi分别表示第i个顶点的x,y,z坐标,VT表示V的转置矩阵。
优选地,所述步骤六中细节提取具体是指:
对最佳视角下的三维模型的细节提取,在获取高频域时,如果直接用原始三维模型的顶点坐标减去平滑之后的模型的顶点坐标虽然可以获得到一定的细节,但存在细节保留不够完整等缺点,可以通过拉普拉斯算子增强三维模型的高频部分从而获得更丰富的细节特征,由于拉普拉斯算子是一种微分算子,它在三维模型中可以起到增强模型细节的作用,通过拉普拉斯算子矩阵乘网格模型顶点坐标的方法增强原模型的细节,公式如下:
V3=(L*(L*(L*VT)))T+V (15),
式中,L表示该网格模型的拉普拉斯算子矩阵,V3是增强细节之后的网格模型顶点坐标,V是原模型的顶点坐标,处理之后再对结果矩阵进行转置,与原三维模型梯度域相加,就得到了增强细节之后的梯度域。
优选地,所述步骤七中非线性压缩的具体步骤是:
步骤一、非线性压缩利用三维网格模型双曲正切函数的压缩公式,实现保留原始三维模型的细节,在浮雕上体现原始三维模型凸起或者是凹陷的地方,压缩公式为:
z=μ*zi+tanh(ω*k) (16),
其中,μ*zi代表的是线性压缩,μ是压缩系数,zi是通过平滑处理之后的最佳视角下的三维模型的坐标值,tanh(ω*k)是双曲正切函数的压缩部分,ω是可以人为调整的压缩系数,k是提取到的模型的高频部分的值,z是非线性压缩后原始三维模型的高度场;
步骤二、获取浮雕模型最终的网格点的坐标,将最佳视角下的三维模型的低频域部分V2作为模型的基底进行线性压缩,然后,再调节高频的部分,保留三维网格模型的细节:
z=za+zb (17),
式中,z是浮雕模型最终的网格点的坐标,za是经过平滑处理后最佳视角下的三维模型的坐标再经过线性压缩操作后的值,zb是通过非线性压缩处理之后的细节。
优选地,所述步骤八中非曲面参数化的具体步骤是:
曲面参数化是指调整三维模型与目标曲面之间的相对位置,使三维模型的可视面完全包含在目标曲面内,建立三维模型可视面BR和目标曲面BT之间的映射关系,实现将三维模型在目标曲面上的附着。本发明设计的曲面参数化算法的步骤如下:
优选地,所述步骤九中添加高频域具体是指:
将最佳视角下的三维模型的细节信息添加到S2实现为二维平面添加模型的高度信息,即细节浮雕生成部分的模型高频域部分,重建为三维模型,完成三维浮雕模型与目标曲面的粘贴。
本发明的有益效果是:本发明提供的结合视觉显著性的浮雕编辑方法,克服了目前关于浅浮雕生成的研究都关注在浮雕生成效果方面,没有考虑如何生成艺术鉴赏价值较高的组合浮雕的问题,本发明首次提出通过摄影构图原理与视觉显著信息相结合生成组合浮雕的方法,对任意目标曲面模型及多个三维模型进行组合实验,获得了艺术鉴赏价值较高的组合浮雕。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图;
图2为本发明实施例一的三维犰狳模型的原始三维模型图;
图3为本发明实施例一的三维犰狳模型最佳视角选择的结果图;
图4为本发明实施例一的在目标曲面上三维犰狳模型的排列组合后的效果图;
图5为本发明实施例一的一个三维模型在目标曲面上生成的浮雕效果图;
图6为本发明实施例二的三维天鹅模型和三维猫模型的原始三维模型图;
图7为本发明实施例二的三维天鹅模型和三维猫模型最佳视角选择的结果图;
图8为本发明实施例二的在目标曲面上三维天鹅模型和三维猫模型的排列组合后的效果图;
图9为本发明实施例二的两个三维模型在目标曲面上生成的浮雕效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1至图9所示,结合视觉显著性的浮雕编辑方法,其具体步骤是:
步骤一、输入三维模型,构造视点球:将原始三维模型导入以x、y以及z为坐标轴的三维坐标系中,并构造该模型的视点球,以视点球上的每个顶点作为观察视点;
步骤二、选择三维模型的最佳视角:通过视觉显著性计算三维模型的最佳视角;
步骤三、排列组合三维模型:计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值;如果场景中有一个模型,将模型的重心移至画面中心位置;如果场景中有两个模型,则将目标曲面分割成两个部分,设置右半部分占画面的三分之二,是画面的主体部分,左半部分次之,较高的浮雕模型置于主体部分的中心位置,较低的浮雕模型置于陪体部分的中心位置,根据三维模型的最佳视角,结合摄影构图原理实现模型的组合排列;
步骤四、获取空间权重矩阵:空间权重矩阵用来表示空间内点、线、面所占的权重比率,空间权重矩阵是基于空间内单元的临界性思想进行的,临界单元有两个表达值,分别用0和1表示,如果两个空间有相接壤的边界,那么对应的元素值为1,反之为0,并引入了两个空间单元相互潜在的影响测度,即采用空间权重矩阵W:
Wij=[dij]-T*[μij]b (1),
其中,dij是单元i和j之间的距离,μij表示单元i和j相接壤的部分占总单元i的比率;
步骤五、平滑处理:根据空间权重矩阵,对最佳视角下的三维模型进行平滑处理;
步骤六、细节提取:通过拉普拉斯算子矩阵实现最佳视角下的三维模型的细节提取;
步骤七、非线性压缩:利用三维网格模型双曲正切函数对原始三维模型的高频域部分进行非线性压缩;
步骤八、曲面参数化:曲面参数化是指调整非线性压缩后的三维模型与目标曲面之间的相对位置,使三维模型的可视面完全包含在目标曲面内,并建立三维模型和目标曲面之间的映射关系,实现将三维模型在目标曲面上的附着;
步骤九、添加高频域:为曲面参数化后的三维模型添加细节提取过程中生成的模型高频域部分,重建为三维模型,完成三维模型与目标曲面的粘贴。
优选地,所述步骤一中输入三维模型,构造视点球具体是指:
将原始三维模型导入以x、y以及z为坐标轴的三维坐标系中,根据三维模型的大小构建一个可以包围模型的视点球,视点球的直径设置为三维模型高度的三倍,对包围三维网格模型的视点球进行离散化得到视点球上的观察视点;根据模型是否包含面部信息选择不同的显著性模型,并使用视觉显著性模型计算三维模型的显著性评分。
优选地,所述步骤二中选择三维模型的最佳视角的具体步骤是:
步骤一、结合用户学习、参数优化和模型预测等因素,通过三维模型视角的属性ai计算最佳视角的多个数学模型,实现选择三维模型最佳观察视角,对于线性-K模型的通用表达式为:
其中,v是视点,s是用到的衡量特定模型的属性索引的集合|S|=K。相同视点下,对于不同的数学模型,可根据相应的权重值ωj,模型在该视点下的属性值aj,得到该视点的评价,进而可得三维模型的最佳观察视角,不同模型的视点属性的权重如下表1所示:
表1最佳视点选择显著性模型
a1 | a2 | a4 | a7 | a12 | a13 | |
Single | 23 | |||||
Linear-3 | 18 | 0.51 | 2.8 | |||
Linear-5 | 14 | 14 | 0.46 | 2.5 | 2.7 | |
Linear-5b | 15 | 2.6 | 0.42 | 13 | 670 |
其中,a1代表了在观察视角方向下三维模型的投影面积;a2代表了模型的表面可见度;a4代表了模型的投影轮廓长度;a7代表了模型的最大深度;a12代表了观察视点从视点球两级向赤道水平面的下降程度;a13代表了模型眼睛的可见度;
本发明实现了Linear-5类模型和Linear-5b类模型两个模型,用于解决不同种类的模型最佳视角选择。两类模型的计算如下式:
G1(v)=14*a1+14*a2+0.46*a4+2.5*a7+2.7*a12 (3),
G2(v)=13*a1+15*a2+0.42*a4+2.6*a12+670*a13 (4),
其中,G1(v)和G2(v)分别是Linear-5类模型和Linear-5b类模型的最佳视角评分。对于不同的模型选择不同的评分标准,例如,有眼睛的模型使用Linear-5b类模型进行评分;
步骤二:构造在每个视点观察下凹包,从而计算三维网格模型的投影面积和投影轮廓长度凹包,具体步骤是:
1)剔除当前视角v(p)下三维网格模型的不可见面片,即满足以下两个条件:
a)选出所有法向与视线法向夹角大于90度的面片,即反向面片
N(p)*v(p)>0 (5),
式中,N(p)表示网格面片的法向,v(p)表示视线方向法向;
b)删除不满足第一个条件的所有面片后,根据空间几何关系删除剩余的面片中的正向但被遮挡的顶点,即删除法向与视点的连线被其他面片遮挡的面片;
3)为Delaunay三角网M初始化所有边对象,并求取边的长度以及邻接三角形几何,其中邻接两个三角形的边为内部边,一个三角形的边为边界边,零个三角形的边为计算过程会退化的边;
4)将所有长度大于R的边界边加入队列,并当队列非空时循环下列过程:
a)从队列中去除一条边E,得到E的唯一邻接三角形T;
b)找到T中另外两个边E1、E2,并将他们的邻接三角形集合删除T;
c)将E1、E2中新形成的长度大于R边界边加入队列;
d)将E置无效标记,若E1、E2有退化的,也置无效标记;
5)收集所有有效的边界边,形成边列表ED,通过边列表ED构建的模型即为凹包。凹包的面积即为三维模型在该视角下的投影面积,凹包的边长即为模型的投影轮廓长度;
步骤三、将上述所得的模型的属性值代入相应的显著性类模型中,结果集中的最大值作为模型的最佳视角。
优选地,所述步骤三中排列组合三维模型的具体步骤是:
步骤一、根据下述公式(6)计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值:
其中,vij表示三维网格模型中第i个网格面的顶点坐标,m表示三维网格模型中第i个网格面的顶点数,Si表示该面的面积,N代表了三维模型中网格面片的数目;
步骤二、如果场景中有一个模型,将模型的重心移至画面中心位置
其中,v(x)1表示浮雕模型的x轴坐标,v(y)1表示浮雕模型的y轴坐标,表示目标曲面x轴方向最大坐标值,表示目标曲面x轴方向最小坐标值,表示目标曲面y轴方向最大坐标值,表示目标曲面y轴方向最小坐标值,mI1(x)表示浮雕模型重心的x轴坐标,mI1(y)表示浮雕模型重心的y轴坐标;
如果场景中有两个模型,则将目标曲面分割成两个部分,考虑到大部分模型都为站立或竖直方向,分割同样沿竖直方向分割。根据摄影构图的原则,“视觉重心”相较于画面左边更倾向于画面右边,所以设置右半部分占画面的三分之二,是画面的主体部分,左半个部分次之,根据最佳视角的计算结果或用户选择将评分较高的浮雕模型置于主体部分的中心位置,较低的浮雕模型置于陪体部分的中心位置;
其中,v(x)1表示主体浮雕模型的x轴坐标,v(y)1表示主体浮雕模型的y轴坐标,mI1(x)表示主体浮雕模型重心的x轴坐标,mI1(y)表示主体浮雕模型重心的y轴坐标,v(x)2表示陪体浮雕模型的x轴坐标,v(y)2表示陪体浮雕模型的y轴坐标,mI2(x)表示陪体浮雕模型重心的x轴坐标,mI2(y)表示陪体浮雕模型重心的y轴坐标;
优选地,所述步骤四中获取空间权重矩阵的这个过程主要是通过toolbox_graph工具包里面的comput_mesh_weight(V,F)函数实现的,在这个函数中,参数V代表了三维模型读出的数据中点的坐标信息,以矩阵的形式保存,参数F代表了三维模型的面数据,通过该函数可以得到三维模型的权重矩阵W。
优选地,所述步骤五中平滑处理具体是指:
利用空间权重矩阵对最佳视角下的三维模型进行平滑处理,空间权重矩阵即为网格模型顶点和周边单元权重比的矩阵,将空间权重矩阵和最佳视角下的三维模型的顶点矩阵的转置矩阵相乘,得到的结果再乘以空间权重矩阵,最后再整体进行一次转置,就可以得到平滑处理后的最佳视角下的三维模型的顶点坐标矩阵,公式如下:
V2=(W*(W*VT))T (13),
其中,V2表示最佳视角下的三维模型的低频域部分,W表示空间权重矩阵,V表示最佳视角下的三维模型的顶点矩阵,xi,yi,zi分别表示第i个顶点的x,y,z坐标,VT表示V的转置矩阵。
优选地,所述步骤六中细节提取具体是指:
对最佳视角下的三维模型的细节提取,在获取高频域时,如果直接用原始三维模型的顶点坐标减去平滑之后的模型的顶点坐标虽然可以获得到一定的细节,但存在细节保留不够完整等缺点,可以通过拉普拉斯算子增强三维模型的高频部分从而获得更丰富的细节特征,由于拉普拉斯算子是一种微分算子,它在三维模型中可以起到增强模型细节的作用,通过拉普拉斯算子矩阵乘网格模型顶点坐标的方法增强原模型的细节,公式如下:
V3=(L*(L*(L*VT)))T+V (15),
式中,L表示该网格模型的拉普拉斯算子矩阵,V3是增强细节之后的网格模型顶点坐标,V是原模型的顶点坐标,处理之后再对结果矩阵进行转置,与原三维模型梯度域相加,就得到了增强细节之后的梯度域。
优选地,所述步骤七中非线性压缩的具体步骤是:
步骤一、非线性压缩利用三维网格模型双曲正切函数的压缩公式,实现保留原始三维模型的细节,在浮雕上体现原始三维模型凸起或者是凹陷的地方,压缩公式为:
z=μ*zi+tanh(ω*k) (16),
其中,μ*zi代表的是线性压缩,μ是压缩系数,zi是通过平滑处理之后的最佳视角下的三维模型的坐标值,tanh(ω*k)是双曲正切函数的压缩部分,ω是可以人为调整的压缩系数,k是提取到的模型的高频部分的值,z是非线性压缩后原始三维模型的高度场;
步骤二、获取浮雕模型最终的网格点的坐标,将最佳视角下的三维模型的低频域部分V2作为模型的基底进行线性压缩,然后,再调节高频的部分,保留三维网格模型的细节:
z=za+zb (17),
式中,z是浮雕模型最终的网格点的坐标,za是经过平滑处理后最佳视角下的三维模型的坐标再经过线性压缩操作后的值,zb是通过非线性压缩处理之后的细节。
优选地,所述步骤八中非曲面参数化的具体步骤是:
曲面参数化是指调整三维模型与目标曲面之间的相对位置,使三维模型的可视面完全包含在目标曲面内,建立三维模型可视面BR和目标曲面BT之间的映射关系,实现将三维模型在目标曲面上的附着。本发明设计的曲面参数化算法的步骤如下:
优选地,所述步骤九中添加高频域具体是指:
将最佳视角下的三维模型的细节信息添加到S2实现为二维平面添加模型的高度信息,即细节浮雕生成部分的模型高频域部分,重建为三维模型,完成三维浮雕模型与目标曲面的粘贴。
对图2所示的三维犰狳模型的原始三维模型图选择最佳视角,具体步骤如下:
步骤一、将三维模型导入以x、y以及z为坐标轴的三维坐标系中,并构造该模型的视点球,构造视点球时首先对包围三维网格模型的视点球进行离散化得到视点球上的观察视点;
根据模型是否包含面部信息选择不同的显著性模型,并使用视觉显著性模型计算三维模型的显著性评分;
因为犰狳模型包含面部信息,所以选择Linear-5b类模型计算三维犰狳模型的最佳视角评分,G2(v)是Linear-5b类模型的最佳视角评分计算方法,最佳视点即为结果集中的最大值:
G2(v)=13*a1+15*a2+0.42*a4+2.6*a12+670*a13 (1a),
其中,a1代表了在观察视角方向下三维模型的投影面积;a2代表了模型的表面可见度;a4代表了模型的投影轮廓长度;a7代表了模型的最大深度;a12代表了观察视点从视点球两级向赤道水平面的下降程度;a13代表了模型眼睛的可见度;
计算图2所示原始三维模型的最佳视角,得到图3所示的最佳视角观察下的三维模型的最佳视角;
步骤二、确定目标曲面后,根据图3所示的最佳视角观察下的三维模型进行模型的组合排列。
1)计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值:
其中,vij表示三维网格模型中第i个网格面的顶点坐标,m表示三维网格模型中第i个网格面的顶点数,Si表示该面的面积,N代表了三维模型中网格面片的数目;
2)根据公式1c和公式1d将最佳视角观察下的三维模型的重心移到至画面中心位置,如图4所示;
其中,v(x)1表示浮雕模型的x轴坐标,v(y)1表示浮雕模型的y轴坐标,表示目标曲面x轴方向最大坐标值,表示目标曲面x轴方向最小坐标值,表示目标曲面y轴方向最大坐标值,表示目标曲面y轴方向最小坐标值,mI1(x)表示浮雕模型重心的x轴坐标,mI1(y)表示浮雕模型重心的y轴坐标;
步骤三、根据公式1f-1j对最佳视角观察下的三维模型进行压缩,并根据在目标曲面上的排列组合的结果进行曲面参数化,得到非线性压缩的三维曲面浮雕模型;
1)通过toolbox_graph工具包里面的comput_mesh_weight(V,F)函数计算空间权重矩阵W。在这个函数中,参数V代表了三维模型读出的数据中点的坐标信息,以矩阵的形式保存,参数F代表了三维模型的面数据,通过该函数可以得到三维模型的权重矩阵W;
2)利用空间权重矩阵W对最佳视角观察下的三维模型进行平滑处理:
Wij=[dij]-T*[μij]b (1f),
其中,dij是单元i和j之间的距离,μij表示单元i和j相接壤的部分占总单元i的比率;
3)利用公式1g得到平滑处理后的最佳视角观察下的三维模型的顶点坐标矩阵,即模型的低频域,公式如下:
V2=(W*(W*VT))T (1g),
4)通过公式1h实现最佳视角观察下的三维模型的细节提取,以此增强三维犰狳模型的细节特征;
V3=(L*(L*(L*VT)))T+V (1h),
其中,L表示该网格模型的拉普拉斯算子矩阵,V3是增强细节之后的最佳视角下的三维模型的顶点坐标,V是原始三维模型的顶点坐标,处理之后再对结果矩阵进行转置,与原始三维模型梯度域相加,就得到了增强细节之后的梯度域;
5)通过双曲正切函数的压缩公式实现三维模型的非线性压缩:
z=μ*zi+tanh(ω*k) (1i),
其中,μ*zi代表的是线性压缩,μ是压缩系数,zi是通过平滑处理之后的坐标值。tanh(ω*k)是双曲正切函数的压缩部分,ω是可以人为调整的压缩系数,k则是提取到的模型的高频部分的值;
6)获取浮雕模型最终的网格点的坐标:将最佳视角下的三维模型的低频域部分V2作为模型的基底进行线性压缩,然后,再调节高频的部分,保留三维网格模型的细节:
z=za+zb (1j),
其中,z是浮雕模型最终的网格点的坐标,za是经过平滑处理后最佳视角下的三维模型的坐标再经过线性压缩操作后的值,zb是通过非线性压缩处理之后的细节;
7)建立非线性压缩后的三维模型可视面BR和目标曲面BT之间的映射关系,进行曲面参数化处理,实现将三维模型在目标曲面上的附着,如图5所示。
对图6所示的三维天鹅模型和三维猫模型的原始三维模型图选择最佳观察视角,具体步骤是:
步骤一、具体步骤与实施例一中的步骤一相同,得到的最佳观察视角结果如图7所示;
步骤二、确定目标曲面后,根据图7所示的最佳视角下的三维模型进行两个模型的组合排列,结果如8所示,具体步骤是:
1)根据公式1b计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值;
2)根据公式1k-1n将最佳视角的计算结果或用户选择将评分较高的浮雕模型,即三维天鹅模型置于主体部分的中心位置,较低的浮雕模型,即三维猫模型置于陪体部分的中心位置;
其中,v(x)1表示主体浮雕模型的x轴坐标,v(y)1表示主体浮雕模型的y轴坐标,mI1(x)表示主体浮雕模型重心的x轴坐标,mI1(y)表示主体浮雕模型重心的y轴坐标,v(x)2表示陪体浮雕模型的x轴坐标,v(y)2表示陪体浮雕模型的y轴坐标,mI2(x)表示陪体浮雕模型重心的x轴坐标,mI2(y)表示陪体浮雕模型重心的y轴坐标;
步骤三、根据公式1f-1j对选出的最佳视角下的三维模型进行压缩,并根据在目标曲面上的排列组合的结果进行曲面参数化,得到非线性压缩后的三维曲面浮雕模型,结果如图9所示。
本发明提供的结合视觉显著性的浮雕编辑方法,克服了目前关于浅浮雕生成的研究都关注在浮雕生成效果方面,没有考虑如何生成艺术鉴赏价值较高的组合浮雕的问题,本发明首次提出通过摄影构图原理与视觉显著信息相结合生成组合浮雕的方法,对任意目标曲面模型及多个三维模型进行组合实验,获得了艺术鉴赏价值较高的组合浮雕。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.结合视觉显著性的浮雕编辑方法,其特征在于,基于结合视觉显著性的浮雕编辑方法的具体步骤是:
步骤一、输入三维模型,构造视点球:将原始三维模型导入以x、y以及z为坐标轴的三维坐标系中,并构造该模型的视点球,以视点球上的每个顶点作为观察视点;
步骤二、选择三维模型的最佳视角:通过视觉显著性计算三维模型的最佳视角;
步骤三、排列组合三维模型:计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值;如果场景中有一个模型,将模型的重心移至画面中心位置;如果场景中有两个模型,则将目标曲面分割成两个部分,设置右半部分占画面的三分之二,是画面的主体部分,左半部分次之,较高的浮雕模型置于主体部分的中心位置,较低的浮雕模型置于陪体部分的中心位置,根据三维模型的最佳视角,结合摄影构图原理实现模型的组合排列;
步骤四、获取空间权重矩阵:空间权重矩阵是基于空间内单元的临界性思想进行的,临界单元有两个表达值,分别用0和1表示,如果两个空间有相接壤的边界,那么对应的元素值为1,反之为0,并引入了两个空间单元相互潜在的影响测度,即采用空间权重矩阵W:
Wij=[dij]-T*[μij]b (1),
其中,dij是单元i和j之间的距离,μij表示单元i和j相接壤的部分占总单元i的比率;
步骤五、平滑处理:根据空间权重矩阵,对最佳视角下的三维模型进行平滑处理;
步骤六、细节提取:通过拉普拉斯算子矩阵实现最佳视角下的三维模型的细节提取;
步骤七、非线性压缩:利用三维网格模型双曲正切函数对原始三维模型的高频域部分进行非线性压缩;
步骤八、曲面参数化:曲面参数化是指调整非线性压缩后的三维模型与目标曲面之间的相对位置,使三维模型的可视面完全包含在目标曲面内,并建立三维模型和目标曲面之间的映射关系,实现将三维模型在目标曲面上的附着;
步骤九、添加高频域:为曲面参数化后的三维模型添加细节提取过程中生成的模型高频域部分,重建为三维模型,完成三维模型与目标曲面的粘贴。
2.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤一中输入三维模型,构造视点球具体是指:
将原始三维模型导入以x、y以及z为坐标轴的三维坐标系中,根据三维模型的大小构建一个可以包围模型的视点球,视点球的直径设置为三维模型高度的三倍,对包围三维网格模型的视点球进行离散化得到视点球上的观察视点。
3.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤二中选择三维模型的最佳视角的具体步骤是:
步骤一、结合用户学习、参数优化和模型预测等因素,通过三维模型视角的属性ai计算最佳视角的多个数学模型,实现选择三维模型最佳观察视角,对于线性-K模型的通用表达式为:
其中,v是视点,s是用到的衡量特定模型的属性索引的集合|S|=K,相同视点下,对于不同的数学模型,可根据相应的权重值ωj,模型在该视点下的属性值aj,得到该视点的评价;
步骤二:构造在每个视点观察下的凹包,从而计算三维网格模型的投影面积和投影轮廓长度凹包,具体步骤是:
1)剔除当前视角v(p)下三维网格模型的不可见面片,即满足以下两个条件:
a)选出所有法向与视线法向夹角大于90度的面片,即反向面片
N(p)*v(p)>0 (3),
式中,N(p)表示网格面片的法向,v(p)表示视线方向法向;
b)删除不满足第一个条件的所有面片后,根据空间几何关系删除剩余的面片中的正向但被遮挡的顶点,即删除法向与视点的连线被其他面片遮挡的面片;
3)为Delaunay三角网M初始化所有边对象,并求取边的长度以及邻接三角形几何,其中邻接两个三角形的边为内部边,一个三角形的边为边界边,零个三角形的边为计算过程会退化的边;
4)将所有长度大于R的边界边加入队列,并当队列非空时循环下列过程:
a)从队列中去除一条边E,得到E的唯一邻接三角形T;
b)找到T中另外两个边E1、E2,并将他们的邻接三角形集合删除T;
c)将E1、E2中新形成的长度大于R边界边加入队列;
d)将E置无效标记,若E1、E2有退化的,也置无效标记;
5)收集所有有效的边界边,形成边列表ED,通过边列表ED构建的模型即为凹包,凹包的面积即为三维模型在该视角下的投影面积,凹包的边长即为模型的投影轮廓长度;
步骤三、将上述所得的模型的属性值代入相应的显著性类模型中,结果集中的最大值作为模型的最佳视角。
4.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤三中排列组合三维模型的具体步骤是:
步骤一、根据下述公式(4)计算模型的重心坐标,以及目标曲面的x轴方向、y轴方向和z轴方向的极值:
其中,vij表示三维网格模型中第i个网格面的顶点坐标,m表示三维网格模型中第i个网格面的顶点数,Si表示该面的面积,N代表了三维模型中网格面片的数目;
步骤二、如果场景中有一个模型,将模型的重心移至画面中心位置
其中,v(x)1表示浮雕模型的x轴坐标,v(y)1表示浮雕模型的y轴坐标,表示目标曲面x轴方向最大坐标值,表示目标曲面x轴方向最小坐标值,表示目标曲面y轴方向最大坐标值,表示目标曲面y轴方向最小坐标值,mI1(x)表示浮雕模型重心的x轴坐标,mI1(y)表示浮雕模型重心的y轴坐标;
如果场景中有两个模型,则将目标曲面分割成两个部分,设置右半部分占画面的三分之二,是画面的主体部分,左半部分次之,较高的浮雕模型置于主体部分的中心位置,较低的浮雕模型置于陪体部分的中心位置:
其中,v(x)1表示主体浮雕模型的x轴坐标,v(y)1表示主体浮雕模型的y轴坐标,mI1(x)表示主体浮雕模型重心的x轴坐标,mI1(y)表示主体浮雕模型重心的y轴坐标,v(x)2表示陪体浮雕模型的x轴坐标,v(y)2表示陪体浮雕模型的y轴坐标,mI2(x)表示陪体浮雕模型重心的x轴坐标,mI2(y)表示陪体浮雕模型重心的y轴坐标。
5.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤五中平滑处理具体是指:
利用空间权重矩阵对最佳视角下的三维模型进行平滑处理,空间权重矩阵即为网格模型顶点和周边单元权重比的矩阵,将空间权重矩阵和最佳视角下的三维模型的顶点矩阵的转置矩阵相乘,得到的结果再乘以空间权重矩阵,最后再整体进行一次转置,就可以得到平滑处理后的最佳视角下的三维模型的顶点坐标矩阵,公式如下:
V2=(W*(W*VT))T (11),
其中,V2表示最佳视角下的三维模型的低频域部分,W表示空间权重矩阵,V表示最佳视角下的三维模型的顶点矩阵,xi,yi,zi分别表示第i个顶点的x,y,z坐标,VT表示V的转置矩阵。
6.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤六中细节提取具体是指:
通过拉普拉斯算子矩阵乘最佳视角下的三维模型的顶点矩阵的方法增强原模型的细节,公式如下:
V3=(L*(L*(L*VT)))T+V (13),
其中,L表示该网格模型的拉普拉斯算子矩阵,V3是增强细节之后的最佳视角下的三维模型的顶点坐标,V是原始三维模型的顶点坐标。
7.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤七中非线性压缩的具体步骤是:
步骤一、非线性压缩利用三维网格模型双曲正切函数的压缩公式,实现保留原始三维模型的细节,在浮雕上体现原始三维模型凸起或者是凹陷的地方,压缩公式为:
z=μ*zi+tanh(ω*k) (14),
其中,μ*zi代表的是线性压缩,μ是压缩系数,zi是通过平滑处理之后的最佳视角下的三维模型的坐标值,tanh(ω*k)是双曲正切函数的压缩部分,ω是压缩系数,k是提取到的模型的高频部分的值,z是非线性压缩后原始三维模型的高度场;
步骤二、获取浮雕模型最终的网格点的坐标:将最佳视角下的三维模型的低频域部分V2作为模型的基底进行线性压缩,然后,再调节高频的部分,保留三维网格模型的细节:
z=za+zb (15),
其中,z是浮雕模型最终的网格点的坐标,za是经过平滑处理后最佳视角下的三维模型的坐标再经过线性压缩操作后的值,zb是通过非线性压缩处理之后的细节。
8.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤八中曲面参数化的具体步骤是:
曲面参数化是指调整非线性压缩后的三维模型与目标曲面之间的相对位置,使三维模型的可视面完全包含在目标曲面内,建立三维模型可视面BR和目标曲面BT之间的映射关系,实现将三维模型在目标曲面上的附着,其中,曲面参数化算法的步骤如下:
9.如权利要求1所述的结合视觉显著性的浮雕编辑方法,其特征在于,所述步骤九中添加高频域具体是指:
将最佳视角下的三维模型的细节信息添加到S2实现为二维平面添加模型的高度信息,即细节浮雕生成部分的模型高频域部分,重建为三维模型,完成三维浮雕模型与目标曲面的粘贴。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711163839.7A CN107895398B (zh) | 2017-11-21 | 2017-11-21 | 结合视觉显著性的浮雕编辑方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711163839.7A CN107895398B (zh) | 2017-11-21 | 2017-11-21 | 结合视觉显著性的浮雕编辑方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107895398A CN107895398A (zh) | 2018-04-10 |
CN107895398B true CN107895398B (zh) | 2021-01-26 |
Family
ID=61804488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711163839.7A Active CN107895398B (zh) | 2017-11-21 | 2017-11-21 | 结合视觉显著性的浮雕编辑方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107895398B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297333B (zh) * | 2019-07-08 | 2022-01-18 | 中国人民解放军陆军装甲兵学院 | 一种光场显示系统调节方法及系统 |
CN110751665B (zh) * | 2019-10-23 | 2021-06-01 | 齐鲁工业大学 | 一种由人像浮雕重建3d人像模型的方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617652A (zh) * | 2013-11-02 | 2014-03-05 | 西北农林科技大学 | 一种基于视觉显著性的浅浮雕生成方法 |
CN105931298A (zh) * | 2016-04-13 | 2016-09-07 | 山东大学 | 一种基于视觉显著性的浅浮雕位置自动选择方法 |
-
2017
- 2017-11-21 CN CN201711163839.7A patent/CN107895398B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617652A (zh) * | 2013-11-02 | 2014-03-05 | 西北农林科技大学 | 一种基于视觉显著性的浅浮雕生成方法 |
CN105931298A (zh) * | 2016-04-13 | 2016-09-07 | 山东大学 | 一种基于视觉显著性的浅浮雕位置自动选择方法 |
Non-Patent Citations (3)
Title |
---|
A Review of Digital Relief Generation Techniques;Meili Wang et al.;《2010 2nd International Conference on Computer Engineering and Technology》;20101231;全文 * |
Bas-Relief Modeling from Normal Images with Intuitive Styles;Zhongping Ji et al.;《JOURNAL OF LATEX CLASS FILES》;20070131;第6卷(第1期);全文 * |
Saliency-based relief generation;Meili Wang et al.;《IETE Technical Review》;20140901;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107895398A (zh) | 2018-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Arora et al. | Symbiosissketch: Combining 2d & 3d sketching for designing detailed 3d objects in situ | |
CN107610061B (zh) | 一种基于二维投影的保边点云孔洞修补方法 | |
CN107730503A (zh) | 三维特征嵌入的图像对象部件级语义分割方法与装置 | |
Lu et al. | Illustrative interactive stipple rendering | |
CN109685914A (zh) | 基于三角网格模型的剖切轮廓自动补面算法 | |
CN105261062B (zh) | 一种人物分段建模方法 | |
CN108876910A (zh) | 一种三维建模方法、装置、设备及计算机可读存储介质 | |
CN107452058B (zh) | 基于特征保留的仿真模型分程度简化方法生成及系统 | |
CN113012293A (zh) | 石刻模型构建方法、装置、设备及存储介质 | |
CN108665530B (zh) | 基于单张图片的三维建模实现方法 | |
Zhang et al. | Real-time bas-relief generation from a 3D mesh | |
Turner et al. | Sketching space | |
CN113034554B (zh) | 基于混沌反向学习的鲸鱼优化的破损俑体碎片配准方法 | |
CN110176064A (zh) | 一种摄影测量生成三维模型的主体对象自动识别方法 | |
CN107895398B (zh) | 结合视觉显著性的浮雕编辑方法 | |
CN110176079A (zh) | 一种基于准共形映射的三维模型变形算法 | |
CN107590858A (zh) | 基于ar技术的医学样品展示方法和计算机设备、存储介质 | |
Levet et al. | Improved skeleton extraction and surface generation for sketch-based modeling | |
Brown | Interactive part selection for mesh and point models using hierarchical graph-cut partitioning | |
JP2832463B2 (ja) | 3次元モデルの再構成方法および表示方法 | |
JP2021033682A (ja) | 画像処理装置、方法及びプログラム | |
CN112002019B (zh) | 一种基于mr混合现实的模拟人物阴影的方法 | |
Bui et al. | Height-field construction using cross contours | |
Ohtake et al. | A composite approach to meshing scattered data | |
Zhang et al. | Single image 3D reconstruction based on control point grid |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |