CN103345771B - 一种基于建模的图像高效渲染方法 - Google Patents

一种基于建模的图像高效渲染方法 Download PDF

Info

Publication number
CN103345771B
CN103345771B CN201310269970.7A CN201310269970A CN103345771B CN 103345771 B CN103345771 B CN 103345771B CN 201310269970 A CN201310269970 A CN 201310269970A CN 103345771 B CN103345771 B CN 103345771B
Authority
CN
China
Prior art keywords
viewpoint
summit
triangular facet
visible
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310269970.7A
Other languages
English (en)
Other versions
CN103345771A (zh
Inventor
郭立
于昊
刘皓
刘鹏
王成彰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201310269970.7A priority Critical patent/CN103345771B/zh
Publication of CN103345771A publication Critical patent/CN103345771A/zh
Application granted granted Critical
Publication of CN103345771B publication Critical patent/CN103345771B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)

Abstract

本发明提出了一种基于建模的图像高效渲染方法,可生成自由视点下的目标图像。采用光场模型记录目标表面信息,在获得目标的三维网格模型和目标的适量环绕视点图像的前提下,通过判定顶点的可见视点列表,决定在哪些视点下采样,并选择顶点的三角面环作为采样单元,采用三角剖分法生成虚拟视点,依据权重插值产生虚拟视点下的采样信息,为了便于采样信息的传输,采用矩阵分解和压缩方法压缩各顶点的采样矩阵;对于自由视点下目标的生成,只需将三维网格模型投影到新视点的屏幕坐标系,读取采样信息生成新视点视图即可。本发明不但考虑了纹理映射中的接缝现象的处理问题,而且减少了纹理信息的存储空间,简化了渲染过程。

Description

一种基于建模的图像高效渲染方法
技术领域
本发明涉及多视视频、三维视频、三维目标渲染、虚拟漫游等技术领域,具体而言,本发明涉及一种基于建模的图像高效渲染方法。
背景技术
三维视频技术在数字电视、虚拟现实系统、3D游戏、远程教育与监控、远程国内工业控制以及三维视频会议系统等领域有广阔的发展前景。相对于传统的二维视频,三维视频可以让用户自由切换视角,除此之外也使用户有“身临其境”之感,这是一种交互性很强的媒体。近年来,随着人们对虚拟现实系统的越来越多的青睐,三维视频技术已成为计算机视觉领域的一个研究热点。
三维视频技术的关键在于三维渲染方法。传统的三维渲染方法有,基于图像的建模技术(IBM)和基于图像的渲染技术(IBR)。IBM是传统的图形学立体成像方法。通过计算场景的精细模型和拍摄少量的环绕视点图像,借助空间坐标系与屏幕坐标系间的映射规则进行采样与投影,继而获得很好的渲染效果。其优点是纹理数据量小。然而由于渲染结果的好坏受到重建模型的精确度的影响,所以对模型的精确度要求较高,对于简单场景可实现实时渲染,但在处理复杂场景时则将大量时间耗费在场景建模部分,不利于实时渲染。IBR根据已知的图像来合成新视图,其优点是无需对场景进行建模,计算量与场景复杂度无关,而且渲染结果具有照片级的逼真效果。由于这种方法没有几何模型作为约束,为避免模糊现象,导致视点采样过于密集,表面光场数据量大,不利于光场数据的存储与传输。
基于以上问题,基于建模的图像渲染技术(IBMR技术)就成为一个研究的热门方向。IBMR技术通过引入目标的三维网格模型作为几何约束条件,可以减少视点采样的数量。然而对于纹理接缝现象、纹理信息的存储以及传输等方面仍然存在许多问题。
发明内容
本发明的目的旨在至少解决上述技术缺陷之一,特别是通过选用的采样单元有效地解决了纹理接缝现象,而且对纹理信息进行了分解,既缩小了纹理信息的存储空间也方便了纹理信息的传输和渲染。
为实现上述目的,本发明提出了一种基于建模的图像高效渲染方法,包括如下步骤:
步骤(1)、以顶点的三角面环作为采样单元,计算网格模型的各个顶点的可见视点列表,通过投影顶点的三角面环到各可见视点图像中,生成各顶点的参考采样矩阵;
步骤(2)、建立顶点的局部坐标系,将各可见视点投影到顶点的局部坐标系中,通过Delaunay三角剖分法生成虚拟视点,同时记录各虚拟视点的权重,通过步骤(1)中的矩阵插值产生虚拟视点下的采样信息,并与步骤(1)中的采样矩阵合并为顶点的采样矩阵
步骤(3)、分解,生成表面纹理与视点纹理;
步骤(4)、在解码端预处理压缩码流;
步骤(5)、投影三维网格到新视点的屏幕坐标系中,以三角面为单元进行像素填充,计算的投影三角面中的各像素的坐标,读取表面纹理与视点纹理,计算生成新视图。
其中,所述的顶点的可见视点列表,确定顶点的采样信息从哪些视点图像中获取,视点的可见性判别如下:
顶点的可见视点判定条件:对于顶点的三角面环中的各三角面,如果有一个三角面在该视点下不可见,则认为该顶点在该视点下不可见。三角面的可见性计算如下:
在世界坐标系下,通过摄像机标定计算摄像机中心坐标,记为,假设三角面的三个顶点的坐标为,则有:
三角面中心坐标 X m → = ( X 1 → + X 2 → + X 3 → ) / 3 ;
归一化的三角面法向量:
N → = X 1 X 2 → × X 1 X 3 → | X 1 X 2 → × X 1 X 3 → |
计算向量与法向量的夹角的余弦值cosθ,若cosθ>0则认为该三角面在该视点下可见,反之,则认为该三角面不可见。
cos θ = N → · X m O → | N → · X m O → |
其中,所述的顶点的参考采样矩阵生成,具体如下:
以一个三角面为例,将三角面与一个等腰直角三角形作对应,计算三角面在各个可见视点下的投影面积,找到最大投影面积,使等腰直角三角形的面积刚好大于最大投影面积,以直角三角形的像素点数代表三角面的采样点数。采用权重插值计算三角面上采样点的坐标。
将三角面环中的各三角面的采样点展开成一列,并且首尾相接,形成顶点的三角面环的采样点序列,由此得到顶点的参考采样矩阵,矩阵的行是顶点的可见视点列表,矩阵的列是顶点的三角面环的采样点序列,遍历可见视点列表,对于每一视点图像,将三角面环投影到视点屏幕坐标系中,读取各采样点的坐标权重信息,以此获得各采样点信息,填充到采样矩阵中。
其中,所述的顶点的局部坐标系的建立,具体如下:
顶点的局部坐标系。以顶点的法向量作为Z轴,在空间中任选一垂直于的单位向量作为X轴,以作为Y轴,由此形成一个右手坐标系统,即作为顶点的局部坐标系。
其中,所述的虚拟视点生成,具体如下:
读取顶点的可见视点列表,将可见视点投影到顶点的局部坐标系中,所有投影点都在XY平面的单位圆内。采用Delaunay三角剖分法分割单位圆,由于Delaunay三角剖分的结果是使剖分后的三角形趋近于等边三角形,由此生成的虚拟视点的权重会更准确,具体步骤如下:
步骤221)、建立初始三角网格T;
步骤222)、选取T中的一条内边e,并令Q为共享e边的两个三角形所形成的四边形。如果其中的一个三角形的外接圆包含Q的全部四个顶点,那么将e用Q的另一条对角线替换;否则保持e不变;
步骤223)、重复步骤222),直到所有三角形都满足条件。
此时的剖分为Delaunay三角剖分。
三角剖分结束后,设置虚拟视点采样间隔(X=12,Y=12)(X为横向采样密度,Y为纵向采样密度),认为单位圆内和圆外接近单位圆的虚拟视点为顶点的可见虚拟视点,以真实视点所构成的三角形为参考系,计算并记录各虚拟视点的坐标,将这些虚拟视点添加到顶点的可见视点列表。对于可见的虚拟视点,根据其坐标,由可见真实视点采样值插值产生虚拟视点采样点值。由此获得顶点的采样矩阵
其中,所述的分解,具体算法如下:
对于,每一行表示的单个采样点在不同的可见视点下的采样信息;每一列表示的是单一视点下的所有采样点的采样信息,所以的元素可以用四维光场函数表示P(r,s,θ,φ),(r,s)是采样点的位置参数,(θ,φ)是视点参数。由于视点间的相关度较高,即各列的相关度较高,所以可以去除部分视点,可按如下式分解:
P v j ≈ Σ k = 1 K g k v j ( r , s ) · h k v j ( θ , φ ) = Σ k = 1 K u k v k T = P K v j
其中为表面纹理,为视点纹理,K值影响重建质量。K值的计算采用自适应奇异值分解法,其具体步骤如下:
步骤31)、计算的奇异值,并将其由大到小排列{δ1,δ2,...,δr};
步骤32)、选取K=1,设定阈值Σ;
步骤33)、计算 Frobineus | | P v j - P K v j | | F 2 = δ K + 1 2 + δ K + 2 2 + . . . + δ r 2 ;
步骤34)、若则K=K+1,返回步骤33);否则K为最佳值。
由此将每个分解为K对表面纹理和视点纹理,至此编码端任务完成。
其中,所述的预处理压缩码流,是对网格数据的预处理,得到可进行计算的网格数据,通过坐标变换和投影,将三维网格投影到新视点屏幕坐标系中,记录可见的三角面。
其中,所述的新视图的生成,以三角面为单元填充像素值,需要计算各像素的表面纹理和视点纹理,具体如下:
令三角面的三个顶点为{v1,v2,v3},投影到新视点屏幕坐标系中为{v'1,v'2,v'3}
表面纹理计算。对于投影的三角面中的像素,计算各像素点在Δv'1v'2v'3的坐标,分别在v1,v2,v3的表面纹理中读取相应的值,
视点纹理计算。分别计算3个顶点v1,v2,v3的局部坐标系,将新视点视线方向投影到3个顶点局部坐标系中,计算相应的视点纹理坐标,并从v1,v2,v3的视点纹理中读取相应的值,
填充三角面内的像素。对于三角面内的像素P(rm,smnn),可如下计算:
P ( r m , s m , θ n , φ n ) = Σ i = 1 3 g v i ( r m , s m ) · h v i ( θ n , φ n )
由此填充个投影三角面,即生成了新视点下的视图。
本发明相对于现有技术的优点在于:
(1)、本发明由于采用了三角面环作为采样单元,消除了纹理接缝现象,获得了过渡均匀的采样信息;
(2)、本发明针对数据量大的纹理信息进行了数据分解,不但去除了数据中的冗余部分,而且方便了纹理数据的传输,也降低了新视图生成的计算量。
附图说明
本发明上述的和/或附加的方面和优点,从以下结合附图对本发明的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于建模的图像渲染算法的高效实现方法的流程框图;
图2为根据本发明实施例的网格模型的采样单元;
图3为根据本发明实施例的等腰直角三角形与三角面的对应;
图4为根据本发明实施例的Delaunay三角剖分;
图5为根据本发明实施例的顶点的采样矩阵
图6为根据本发明实施例的K=2时的表面纹理和视点纹理;
图7为根据本发明实施例的新视点真实视图与渲染结果比较。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
为了实现本发明之目的,一种基于建模的图像渲染算法的高效实现方法,包括如下步骤:
步骤(1)、以顶点的三角面环作为采样单元,计算网格模型的各个顶点的可见视点列表,通过投影顶点的三角面环到各可见视点图像中,生成各顶点的参考采样矩阵。
步骤11)、采样单元。在图像渲染算法中往往存在由于采样单元选择不慎,而在生成的视图中出现颜色信息过渡不均匀的现象,即纹理接缝现象。对于网格模型,有三种采样单元可供选择,如图2所示:a、基于三角面的采样单元,以一个三角面作为采样单元,没有考虑到三角面的边和顶点的信息过渡;b、基于边的采样单元,没有考虑顶点的信息过渡;c、基于顶点的三角面环,通过对边和顶点的重采样,可以消除生成图像中纹理接缝现象,在本发明中采样的就是这种采样单元。
步骤12)、顶点的可见视点列表。顶点的可见视点判定条件:对于顶点的三角面环中的各三角面,如果有一个三角面在该视点下不可见,则认为该顶点在该视点下不可见。三角面的可见性计算如下:
在世界坐标系下,通过摄像机标定计算摄像机中心坐标,记为,假设三角面的三个顶点的坐标为,则有:
三角面中心坐标 X m → = ( X 1 → + X 2 → + X 3 → ) / 3 ;
归一化的三角面法向量:
N → = X 1 X 2 → × X 1 X 3 → | X 1 X 2 → × X 1 X 3 → |
计算向量与法向量的夹角的余弦值cosθ,若cosθ>0则认为该三角面在该视点下可见,反之,则认为该三角面不可见。
cos θ = N → · X m O → | N → · X m O → |
通过上述判别,获得每个顶点的可见视点列表,此表中的可见视点指的是真实视点。
步骤13)、顶点的参考采样矩阵生成。以一个三角面为例,将三角面与一个等腰直角三角形作对应,计算三角面在各个可见视点下的投影面积,找到最大投影面积,使等腰直角三角形的面积刚好大于最大投影面积,以直角三角形的像素点数代表三角面的采样点数。采用权重插值计算三角面上采样点的坐标。如图3所示。
将三角面环中的各三角面的采样点展开成一列,并且首尾相接,形成顶点的三角面环的采样点序列,由此得到顶点的参考采样矩阵,矩阵的行是顶点的可见视点列表,矩阵的列是顶点的三角面环的采样点序列,遍历可见视点列表,对于每一视点图像,将三角面环投影到视点屏幕坐标系中,读取各采样点的坐标权重信息,以此获得各采样点信息,填充到采样矩阵中。
步骤(2)、建立顶点的局部坐标系,将各可见视点投影到顶点的局部坐标系中,通过Delaunay三角剖分法生成虚拟视点,同时记录各虚拟视点的权重,通过(1)中的矩阵插值产生虚拟视点下的采样信息,并与(1)中的采样矩阵合并为顶点的采样矩阵
由于真实视点的采样有限,为了能够渲染出任意视角下的新视图,需要生成虚拟视点以及这些虚拟视点下的采样信息。在本发明中,通过建立顶点的局部坐标系,并将顶点的可见视点投影到这个坐标系中,继而采用三角剖分分割单位圆,从而确定各虚拟视点的权重计算。
步骤21)、顶点的局部坐标系的建立,具体如下:
顶点的局部坐标系。以顶点的法向量作为Z轴,在空间中任选一垂直于的单位向量作为X轴,以作为Y轴,由此形成一个右手坐标系统,即作为顶点的局部坐标系。读取顶点的可见视点列表,将可见视点投影到顶点的局部坐标系中,所有投影点都在XY平面的单位圆内,如图4a),由于选用的数据库中视点数量较多,在此只列出少量投影点以作范例。
步骤22)、Delaunay三角剖分生成虚拟视点。采用Delaunay三角剖分法分割单位圆,由于Delaunay三角剖分的结果是使剖分后的三角形趋近于等边三角形,由此生成的虚拟视点的权重会更准确。对于Delaunay三角剖分,本发明采用的是局部优化的外接圆准则,具体步骤如下:
步骤221)、建立初始三角网格T;
步骤222)、选取T中的一条内边e,并令Q为共享e边的两个三角形所形成的四边形。如果其中的一个三角形的外接圆包含Q的全部四个顶点,那么将e用Q的另一条对角线替换;否则保持e不变;
步骤223)、重复步骤222),直到所有三角形都满足外接圆准则条件。
此时的剖分为Delaunay三角剖分,如图4b)。
三角剖分结束后,设置虚拟视点采样间隔(X=12,Y=12)(X为横向采样密度,Y为纵向采样密度),如图4c)。认为单位圆内和圆外接近单位圆的虚拟视点为顶点的可见虚拟视点,以剖分后的三角形为参考系,计算并记录各虚拟视点的坐标,将这些虚拟视点添加到顶点的可见视点列表。对于可见的虚拟视点,根据其坐标,由可见真实视点采样值插值产生虚拟视点采样点值。由此获得顶点的采样矩阵,如图5所示,M为顶点的三角面环的采样点数,N为顶点的可见视点列表,此时包括真实可见视点和虚拟可见视点。
步骤(3)、分解,生成表面纹理与视点纹理。
顶点的采样矩阵,每一行表示的单个采样点在不同的可见视点下的采样信息;每一列表示的是单一视点下的所有采样点的采样信息,如果的元素用四维光场函数表示P(r,s,θ,φ),(r,s)是采样点的位置参数,(θ,φ)是视点参数。由于虚拟视点的采样值是由真实视点插值产生,即各列的相关度较高,所以可以去除部分视点,可按如下式分解:
P v j ≈ Σ k = 1 K g k v j ( r , s ) · h k v j ( θ , φ ) = Σ k = 1 K u k v k T = P K v j
其中为表面纹理,为视点纹理,K值影响重建质量。K值的计算采用自适应奇异值分解法,其具体步骤如下:
步骤31)、计算的奇异值,并将其由大到小排列{δ1,δ2,...,δr};
步骤32)、选取K=1,设定阈值Σ;
步骤33)、计算 Frobineus | | P v j - P K v j | | F 2 = δ K + 1 2 + δ K + 2 2 + . . . + δ r 2 ;
步骤34)、若则K=K+1,返回33);否则K为最佳值。
本发明中获取的K=2,其分解后的纹理信息如图6所示,a)为表面纹理和b)为视点纹理,由此将每个分解为两对表面纹理和视点纹理,至此编码端任务完成。
步骤(4)、在解码端预处理压缩码流。在解码端对网格数据的预处理,得到可进行计算的网格数据,通过坐标变换和投影,将三维网格投影到新视点屏幕坐标系中,记录可见的三角面。
步骤(5)、投影三维网格到新视点的屏幕坐标系中,以三角面为单元进行像素填充,计算的投影三角面中的各像素的坐标,读取表面纹理与视点纹理,计算生成新视图。以三角面为单元填充像素值,需要计算各像素的表面纹理和视点纹理,具体如下:
令三角面的三个顶点为{v1,v2,v3},投影到新视点屏幕坐标系中为{v'1,v'2,v'3}
表面纹理计算。对于投影的三角面中的像素,计算各像素点在Δv'1v'2v'3的坐标,分别在v1,v2,v3的表面纹理中读取相应的值,
视点纹理计算。分别计算3个顶点v1,v2,v3的局部坐标系,将新视点视线方向投影到3个顶点局部坐标系中,计算相应的视点纹理坐标,并从v1,v2,v3的视点纹理中读取相应的值,
填充三角面内的像素。对于三角面内的像素P(rm,smnn),可如下计算:
P ( r m , s m , θ n , φ n ) = Σ i = 1 3 g v i ( r m , s m ) · h v i ( θ n , φ n )
由此填充个投影三角面,即生成了新视点下的视图,如图7所示,a)与c)为新视点下拍摄的真实视图,b)与d)是本发明算法的渲染结果。
通过实验结果,可以看出本发明的算法消除了纹理接缝现象,渲染结果中的目标表面颜色过渡均匀;由于本发明中采用了纹理信息分解的方法,大大减少了纹理存储空间;由于解码端的渲染过程中,只需要计算采样点表面坐标和视点坐标,即可直接读取采样值,由此简化了渲染过程。
本发明未详细阐述的部分属于本领域公知技术。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (1)

1.一种基于建模的图像高效渲染方法,其特征在于,包括如下步骤:
步骤(1)、以顶点的三角面环作为采样单元,计算网格模型的各个顶点的可见视点列表,通过投影顶点的三角面环到各可见视点图像中,生成各顶点的参考采样矩阵;
步骤(2)、建立顶点的局部坐标系,将各可见视点投影到顶点的局部坐标系中,通过Delaunay三角剖分法生成虚拟视点,同时记录各虚拟视点的权重,通过步骤(1)中的矩阵插值产生虚拟视点下的采样信息,并与步骤(1)中的采样矩阵合并为顶点的采样矩阵
步骤(3)、分解生成表面纹理与视点纹理;
步骤(4)、在解码端预处理压缩码流;
步骤(5)、投影三维网格到新视点的屏幕坐标系中,以三角面为单元进行像素填充,计算投影三角面中的各像素的坐标,读取表面纹理与视点纹理,计算生成新视图;
计算网格模型的各个顶点的可见视点列表,确定顶点的采样信息从哪些视点图像中获取,具体如下:
顶点的可见视点判定条件:对于顶点的三角面环中的各三角面,如果有一个三角面在该视点下不可见,则认为该顶点在该视点下不可见,三角面的可见性计算如下:
在世界坐标系下,通过摄像机标定计算摄像机中心坐标,记为假设三角面的三个顶点的坐标为则有:
三角面中心坐标
归一化的三角面法向量:
计算向量与法向量的夹角的余弦值cosθ,
若cosθ>0则认为该三角面在该视点下可见,反之,则认为该三角面不可见;
所述的生成各顶点的参考采样矩阵,具体如下:
以一个三角面为例,将三角面与一个等腰直角三角形作对应,计算三角面在各个可见视点下的投影面积,找到最大投影面积,使等腰直角三角形的面积刚好大于最大投影面积,以直角三角形的像素点数代表三角面的采样点数,采用权重插值计算三角面上采样点的坐标;
将三角面环中的各三角面的采样点展开成一列,并且首尾相接,形成顶点的三角面环的采样点序列,由此得到顶点的参考采样矩阵,矩阵的行是顶点的可见视点列表,矩阵的列是顶点的三角面环的采样点序列,遍历可见视点列表,对于每一视点图像,将三角面环投影到视点屏幕坐标系中,读取各采样点的坐标权重信息,以此获得各采样点信息,填充到采样矩阵中;
所述的建立顶点的局部坐标系,具体如下:
以顶点的法向量作为Z轴,在空间中任选一垂直于的单位向量作为X轴,以作为Y轴,由此形成一个右手坐标系统,即作为顶点的局部坐标系;
所述的生成虚拟视点,具体如下:
读取顶点的可见视点列表,将可见视点投影到顶点的局部坐标系中,所有投影点都在XY平面的单位圆内,采用Delaunay三角剖分法分割单位圆,具体步骤如下:
步骤221)、建立初始三角网格T;
步骤222)、选取T中的一条内边e,并令Q为共享e边的两个三角形所形成的四边形,如果其中的一个三角形的外接圆包含Q的全部四个顶点,那么将e用Q的另一条对角线替换;否则保持e不变;
步骤223)、重复步骤222),直到所有三角形的外接圆包含Q的全部四个顶点;
此时的剖分为Delaunay三角剖分;
三角剖分结束后,设置虚拟视点采样间隔,认为单位圆内和圆外接近单位圆的虚拟视点为顶点的可见虚拟视点,以真实视点所构成的三角形为参考系,计算并记录各虚拟视点的坐标,将这些虚拟视点添加到顶点的可见视点列表,对于可见的虚拟视点,根据其坐标,由可见真实视点采样值插值产生虚拟视点采样点值,由此获得顶点的采样矩阵
所述的分解的具体算法如下:
生成的每一行表示单个采样点在不同的可见视点下的采样信息,每一列表示的是单一视点下的所有采样点的采样信息,的元素用四维光场函数P(r,s,θ,φ)表示,(r,s)是采样点的位置参数,(θ,φ)是视点参数,按如下式分解:
其中为表面纹理,为视点纹理,K值影响重建质量,K值的计算采用自适应奇异值分解法,其具体步骤如下:
步骤31)、计算的奇异值,并将其由大到小排列{δ1,δ2,...,δr};
步骤32)、选取K=1,设定阈值ε;
步骤33)、计算
步骤34)、若则K=K+1,返回步骤33);否则K为最佳值;
由此将每个分解为K对表面纹理和视点纹理,至此编码端任务完成;
所述的预处理压缩码流,是对网格数据的预处理,得到进行计算的网格数据,通过坐标变换和投影,将三维网格投影到新视点屏幕坐标系中,记录可见的三角面;
所述的生成新视图,以三角面为单元填充像素值,需要计算各像素的表面纹理和视点纹理,具体如下:
令三角面的三个顶点为{v1,v2,v3},投影到新视点屏幕坐标系中为{v′1,v'2,v'3};
表面纹理计算,对于投影的三角面中的像素,计算各像素点在Δv′1v'2v'3的坐标,分别在v1,v2,v3的表面纹理中读取相应的值,
视点纹理计算,分别计算3个顶点v1,v2,v3的局部坐标系,将新视点视线方向投影到3个顶点局部坐标系中,计算相应的视点纹理坐标,并从v1,v2,v3的视点纹理中读取相应的值,
填充三角面内的像素,对于三角面内的像素P(rm,smnn),进行如下计算:
由此填充个投影三角面,即生成了新视点下的视图。
CN201310269970.7A 2013-06-28 2013-06-28 一种基于建模的图像高效渲染方法 Expired - Fee Related CN103345771B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310269970.7A CN103345771B (zh) 2013-06-28 2013-06-28 一种基于建模的图像高效渲染方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310269970.7A CN103345771B (zh) 2013-06-28 2013-06-28 一种基于建模的图像高效渲染方法

Publications (2)

Publication Number Publication Date
CN103345771A CN103345771A (zh) 2013-10-09
CN103345771B true CN103345771B (zh) 2016-08-10

Family

ID=49280564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310269970.7A Expired - Fee Related CN103345771B (zh) 2013-06-28 2013-06-28 一种基于建模的图像高效渲染方法

Country Status (1)

Country Link
CN (1) CN103345771B (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103606184B (zh) * 2013-11-21 2016-05-25 武大吉奥信息技术有限公司 一种基于二维和三维一体化矢量渲染引擎的装置
CN103813153B (zh) * 2014-01-27 2015-12-30 万象三维视觉科技(北京)有限公司 一种基于加权求和的裸眼3d多视点图像合成方法
CN104050709B (zh) * 2014-06-06 2017-08-29 联想(北京)有限公司 一种三维图像处理方法及电子设备
CN104270627A (zh) * 2014-09-28 2015-01-07 联想(北京)有限公司 一种信息处理方法及第一电子设备
CN106157354B (zh) * 2015-05-06 2019-08-23 腾讯科技(深圳)有限公司 一种三维场景切换方法及系统
CN104835198B (zh) * 2015-05-19 2018-09-14 网易(杭州)网络有限公司 游戏场景展示方法和装置
CN105894570A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 虚拟现实场景模型建立方法及装置
US10249087B2 (en) * 2016-01-29 2019-04-02 Magic Leap, Inc. Orthogonal-projection-based texture atlas packing of three-dimensional meshes
CN106228591B (zh) * 2016-07-12 2020-06-26 江苏奥格视特信息科技有限公司 虚拟现实超高速实时渲染方法
US10453244B2 (en) * 2016-10-07 2019-10-22 Sony Corporation Multi-layer UV map based texture rendering for free-running FVV applications
CN106604006B (zh) * 2016-12-20 2020-07-21 深圳市Tcl高新技术开发有限公司 一种适用于投影电视的曲面幕布投影方法及系统
CN106991715A (zh) * 2017-05-11 2017-07-28 中国科学院自动化研究所 基于光场采集的光栅棱柱三维显示渲染方法
CN107452046B (zh) * 2017-06-30 2021-01-22 百度在线网络技术(北京)有限公司 三维城市模型的纹理处理方法及装置、设备及可读介质
EP3432581A1 (en) * 2017-07-21 2019-01-23 Thomson Licensing Methods, devices and stream for encoding and decoding volumetric video
CN107464278B (zh) 2017-09-01 2020-01-24 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
CN108734671B (zh) * 2017-09-12 2020-07-24 武汉天际航信息科技股份有限公司 三维纹理修饰方法及其系统、自动贴图方法及其系统
US10776995B2 (en) * 2017-10-17 2020-09-15 Nvidia Corporation Light fields as better backgrounds in rendering
CN107918948B (zh) * 2017-11-02 2021-04-16 深圳市自由视像科技有限公司 4d视频渲染方法
CN109215103A (zh) * 2018-08-30 2019-01-15 西安恒歌数码科技有限责任公司 一种基于osg的大批量文字渲染方法
CN109523622B (zh) * 2018-11-15 2023-08-01 奥本未来(北京)科技有限责任公司 一种非结构化的光场渲染方法
CN109685879B (zh) * 2018-12-13 2023-09-29 广东启慧城市信息有限公司 多视影像纹理分布的确定方法、装置、设备和存储介质
CN111145081B (zh) * 2019-12-16 2023-04-25 佛山科学技术学院 基于空间体积特征的三维模型视图投影方法及系统
CN111598992B (zh) * 2020-04-08 2023-10-31 上海嘉奥信息科技发展有限公司 基于Unity3D体和面模型分区剔除渲染方法及系统
CN111932664B (zh) * 2020-08-27 2023-06-23 腾讯科技(深圳)有限公司 图像渲染方法、装置、电子设备及存储介质
CN112085855B (zh) * 2020-09-09 2023-05-09 南昌虚拟现实研究院股份有限公司 交互式图像编辑方法、装置、存储介质及计算机设备
CN112734896B (zh) * 2021-01-08 2024-04-26 网易(杭州)网络有限公司 环境遮蔽渲染方法、装置、存储介质及电子设备
CN113570620B (zh) * 2021-07-14 2024-03-05 北京达佳互联信息技术有限公司 一种光场数据获取方法、装置、电子设备及存储介质
CN113870403B (zh) * 2021-09-23 2023-01-10 埃洛克航空科技(北京)有限公司 用于图像渲染的信息处理方法及装置
CN113938666B (zh) * 2021-10-25 2023-07-25 珠海普罗米修斯视觉技术有限公司 基于关键帧的视频数据传输方法、装置及存储介质
CN116843841B (zh) * 2023-09-04 2023-11-21 四川物通科技有限公司 基于网格压缩的大规模虚拟现实系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101189600A (zh) * 2005-06-30 2008-05-28 微软公司 对程序几何对象进行三角剖分
CN101610411A (zh) * 2009-07-16 2009-12-23 中国科学技术大学 一种视频序列混合编解码的方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6650335B2 (en) * 2001-02-22 2003-11-18 Mitsubishi Electric Research Laboratories, Inc. Method for extracting static and dynamic super-resolution textures form a sequence of images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101189600A (zh) * 2005-06-30 2008-05-28 微软公司 对程序几何对象进行三角剖分
CN101610411A (zh) * 2009-07-16 2009-12-23 中国科学技术大学 一种视频序列混合编解码的方法和系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A faster circle-sweep Delaunay triangulation algorithm;Ahmad Biniaz等;《Advances in Engineering Software》;20111002;第43卷(第1期);第1-13页 *
一种基于建模的图像渲染算法的并行实现;于昊 等;《通信技术》;20130610;第46卷(第06期);第133页左栏第1行-第136页左栏第15行 *
基于光场渲染的动态3D目标重构技术;程龙 等;《中国科学院研究生院学报》;20091115;正文第1-7页 *
基于光场渲染的多视点视频编解码方法研究;程龙 等;《中国科学技术大学学报》;20100815;第40卷(第08期);第812页左栏第1行-第817页左栏第10行 *

Also Published As

Publication number Publication date
CN103345771A (zh) 2013-10-09

Similar Documents

Publication Publication Date Title
CN103345771B (zh) 一种基于建模的图像高效渲染方法
US8217931B2 (en) System and method for processing video images
CN105247575B (zh) 用于在三维场景上叠加二维地图数据的系统和方法
US20080246836A1 (en) System and method for processing video images for camera recreation
WO2017206325A1 (zh) 全局光照的计算方法及装置
US20080259073A1 (en) System and method for processing video images
CN105006021B (zh) 一种适用于快速点云三维重建的颜色映射方法及装置
CN109003325A (zh) 一种三维重建的方法、介质、装置和计算设备
CN104661010A (zh) 三维立体模型的建立方法和装置
CN103024421B (zh) 自由视点电视中的虚拟视点合成方法
CN108805979A (zh) 一种动态模型三维重建方法、装置、设备和存储介质
CN105678683A (zh) 一种三维模型的二维存储方法
CN104103090A (zh) 图像处理方法、个性化人体显示方法及其图像处理系统
CN105427361B (zh) 一种三维场景中动目标轨迹的显示方法
CN102542601A (zh) 一种用于3d对象建模的设备和方法
CN109191554A (zh) 一种超分辨图像重建方法、装置、终端和存储介质
CN106500626A (zh) 一种手机立体成像方法及三维成像手机
CN104217461B (zh) 一种基于深度图模拟实时凹凸效果的视差映射方法
CN109461197B (zh) 一种基于球面uv和重投影的云实时绘制优化方法
CN112927348B (zh) 一种基于多视点rgbd相机高分辨率人体三维重建方法
GB2584753A (en) All-around spherical light field rendering method
CN105791798B (zh) 一种基于gpu的4k超多视点3d视频实时转化方法及装置
CN116385577A (zh) 虚拟视点图像生成方法及装置
CN109816765A (zh) 面向动态场景的纹理实时确定方法、装置、设备和介质
Andersen et al. An AR-guided system for fast image-based modeling of indoor scenes

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160810