CN104050689A - 一种虚拟场景中可视物体的二维裁剪生成方法 - Google Patents

一种虚拟场景中可视物体的二维裁剪生成方法 Download PDF

Info

Publication number
CN104050689A
CN104050689A CN201410255051.9A CN201410255051A CN104050689A CN 104050689 A CN104050689 A CN 104050689A CN 201410255051 A CN201410255051 A CN 201410255051A CN 104050689 A CN104050689 A CN 104050689A
Authority
CN
China
Prior art keywords
driver
comes
summit
bounding box
generation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410255051.9A
Other languages
English (en)
Inventor
王春华
韩栋
周书臣
徐洪章
杨天明
杨锋英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huanghuai University
Original Assignee
Huanghuai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huanghuai University filed Critical Huanghuai University
Priority to CN201410255051.9A priority Critical patent/CN104050689A/zh
Publication of CN104050689A publication Critical patent/CN104050689A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种虚拟场景中可视物体的二维裁剪生成方法,通过统一坐标系、求解投影后的最大凸包和判断投影顶点与最大凸包的关系,实现视景体在三维空间裁剪转换到二维空间进行的目的,降低了裁剪判断的计算开销。通过实验对比分析,本发明能准确地进行视景体裁剪,较之传统的三维视景体裁剪方法,计算效率提高了2.6~4.5倍,能有效地应用于大场景实时绘制中。

Description

一种虚拟场景中可视物体的二维裁剪生成方法
技术领域
本发明属于计算机虚拟场景中视景体裁剪技术领域,尤其涉及一种虚拟场景中可视物体的二维裁剪生成方法。
背景技术
在构成大规模场景的几何面片中,每次成像的可见面片只占很少一部分,通常在10%左右。因此,利用视景体裁剪可以节省大量关于不可见部分的光栅化和光照等费时计算,提高成像速度,降低场景复杂度。
世界坐标系中的大部分场景(如森林场景),在Y方向上较少有重叠,即:世界坐标系XOZ平面上的一点通常只属于一个物体包围盒在XOZ平面的投影(如图1所示)。传统的视景体裁剪方法为三维空间的判断方法,对此类场景的裁剪效率较低。
发明内容
本发明的目的在于提供一种虚拟场景中可视物体的二维裁剪生成方法,旨在解决现有技术中裁剪效率较低的问题。
本发明是这样实现的,一种虚拟场景中可视物体的二维裁剪生成方法,包括以下步骤:
S1、在相同的坐标系中描述视景体和场景对象,并分别求解出视景体的8个顶点和场景对象各顶点在该坐标系下的坐标位置;
S2、将视景体和场景中物体投影在同一平面上,并求解出视景体投影点所构成的最大凸包;
S3、通过判断场景对象的包围盒投影是否在最大凸包内,推断三维空间中物体是否在视景体范围内。
优选地,在步骤S1中,所述坐标系为世界空间坐标系;所述视景体采用AABB包围盒来代替。
优选地,在步骤S1中,所述视景体的8个顶点位置的计算公式分别用函数定义为:
其中,Wn、Hn、Wf、Hf分别为近、远裁剪平面的宽度和高度;
Cn、Cf分别为近、远裁剪平面的中心,并且 其中,P为虚拟相机的位置Dn、Df分别为相机相距近、远裁剪平面的距离;为规范化后的3个标准向量。
优选地,在步骤S2中,所述最大凸包的求解包括以下具体过程:
遍历视景体投影后形成的各顶点,确保各顶点具有唯一性,若有相同的点,则只保留1个,最终顶点集合为S;
将S中各顶点按横坐标X值递增排序,对于X值相同的点,则按Y值递增排序,最终排序后的有序顶点集合为S';
对S'内的点实施改进后的双向队列Melkman算法步骤。
优选地,在所述对S'内的点实施改进后的双向队列Melkman算法步骤的步骤中,物体包围盒若采用AABB包围盒,则在XOZ平面投影形成的顶点为平行于XOZ平面4个顶点的X和Z坐标,Y值设定为0。
优选地,所述步骤S3步骤以下具体步骤:
逆时针排序最大凸包顶点,通过判断投影后的点是否在每一条边的左侧来判断该顶点是否在凸多边形内;
令L为最大凸包逆时针排序的边集合,P为1个对象包围盒投影后的顶点集合,函数leftToLine(p,l)通过返回值判断点p与边l的位置关系:若leftToLine(p,l)>0,p位于边l的左侧;若leftToLine(p,l)<0,p位于边l的右侧;若leftToLine(p,l)=0,p位于边l上;
判断三维场景中对象是否在视景体内,其中,若则包围盒在视景体内,若则包围盒与视景体相交,若 &ForAll; p &Element; P , &ForAll; l &Element; L , leftToLine ( p , l ) < 0 , 则包围盒在视景体外。
本发明克服现有技术的不足,提供一种虚拟场景中可视物体的二维裁剪生成方法,简称为2D-VFCM(2DViewFrustumCullingMethod)方法,在本发明中,约定:V为构成视景体的顶点集合,O为视景体内部所有物体的顶点集合,V'为V往平面P投影后顶点形成的最大凸多边形(简称最大凸包),O'为O往平面P投影后的顶点集合,O2为往平面P投影后形成顶点集合为O'的空间物体顶点集合。定义:t∈OT,表示顶点t在由顶点集合T构成的最大凸包内。
显然,以下2条推论是成立的。
推论1:
推论2:若则o′∈V′。
由于在大多数虚拟场景中,各物体对象在世界坐标系Y方向上重叠极少,且观察者位于地面观察居多。所以,大部分场景中,推论1中O与O2可视为相等。因此,判断物体是否在视景体内的问题,可以转换为判断场景中哪些物体的投影点在最大凸包内的问题。
在本发明中,2D-VFCM方法主要过程有以下3步,如图2所示:
Step1.统一坐标系:在相同的坐标系中描述视景体和场景对象,并分别求解出视景体的8个顶点和场景对象各顶点在该坐标系下的坐标位置;
Step2.投影视景体和物体包围盒:将视景体和场景中物体投影在同一平面上(XOZ平面),并求解出视景体投影点所构成的最大凸包;
Step3.裁剪判断:通过判断场景对象的包围盒投影是否在最大凸包内,推断三维空间中物体是否在视景体范围内。
本发明针对水平方向上很少有重叠的场景,提出了2D-VFCM视景体裁剪方法。对比传统的视景体裁剪方法,2D-VFCM在效率的提升主要体现在将顶点与平面的位置关系判断,转换为顶点与线段的位置关系判断,从而实现了效率提升2.6~4.5倍。通过森林场景的绘制实验表明2D-VFCM方法是正确的、有效的,能应用于虚拟现实、飞行模拟、战场仿真与视频游戏等实时应用的视景体裁剪。
附图说明
图1是大部分虚拟场景中物体在地面的投影点与对应物体的关系图;其中,立方体为场景中物体包围盒;γ为垂直于水平方向的射线;
图2是本发明中2D-VFCM方法主要过程示意图;
图3是本发明中2D-VFCM方法主要过程描述图;
图4是本发明实施例中三维观察流水线示意图;
图5是本发明实施例中虚拟相机与视景体示意图;
图6是本发明实施例中视景体投影后的顶点分布示意图;
图7是本发明实施例中Melkman算法求解最大凸包示意图;其中,左图为初始化凸包的最初三个顶点,右图为求解构成凸包的顶点v;
图8是本发明实施例中传统视景体裁剪与2D-VFCM方法步骤对比示意图;
图9是本发明虚拟场景中可视物体的二维裁剪生成方法与传统视景体裁剪方法效率对比图;其中,TVFC代表传统视景体裁剪方法,横坐标括号中的数字表示判断1个立方体与视景体的位置关系所需的计算量,2D-VFCM括号前的数字表示视景体投影后形成凸多边形边的数目;
图10是本发明实施例中森林(1000棵树)场景绘制结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
一种虚拟场景中可视物体的二维裁剪生成方法,如图3所示,包括以下步骤:
S1、在相同的坐标系中描述视景体和场景对象,并分别求解出视景体的8个顶点和场景对象各顶点在该坐标系下的坐标位置;
在步骤S1中,根据三维观察流水线(如图4所示)可知,场景中物体在显示到屏幕之前,需要进行建模变换、观察变换、投影变换、规范化变换和裁剪和视口变换过程。为了降低将场景中所有物体变换到投影坐标系的计算量,本方法选择在世界空间坐标系下计算,避免将场景中所有物体转换到各坐标系的巨大开销。通常,为了减少计算场景中各物体是否在视景体内的计算量,采用AABB包围盒来代替复杂几何形状的物体。因此,对于场景中各物体而言,仅需计算包围盒各顶点坐标。
求解视景体8个顶点问题上,文献(GRIBB,G.,ANDHARTMANN,K.Fast extraction of viewing frustum planes from theworld-view-projection matrix.2001.)由观察矩阵和投影矩阵推导出世界坐标系中视景体的6个面,再根据每3个平面相交于1点,通过求解线性方程组推导出视景体8个顶点空间坐标,该方法计算量过大,不适合虚拟场景漫游时频繁重新计算视景体的场合。2D-VFCM方法采用几何方法直接计算出视景体8个顶点。如图5所示,视景体各顶点通过相交的三个平面英文首字母表示,如近裁剪平面的左上角顶点位置为Pntl。近、远裁剪平面的宽度和高度分别用Wn、Hn、Wf、Hf表示,相机相距近、远裁剪平面的距离分别为Dn、Df,近、远裁剪平面的中心分别为Cn、Cf,虚拟相机的位置为P、坐标系由规范化后的3个标准向量表示参照图5所示,Cf可表示为:通过Cf、Wf、Hf可计算出远裁剪平面上的4个顶点位置,分别为:
同理,可求得近裁剪平面中心位置由Cn、Wn、Hn可计算出近裁剪平面上4个顶点位置。
S2、将视景体和场景中物体投影在同一平面上,并求解出视景体投影点所构成的最大凸包;
在步骤S2中,场景中虚拟相机可以以任意的朝向处于任意位置,因此,视景体的8个顶点投影到世界坐标系(假设XOZ平面)时的位置关系主要有图6所示的4种情况。投影后的最大凸包由4个、5个、6个或7个顶点(分别如图6中的a、b、c、d所示)构成。
Melkman算法是快速求解最大凸包的经典算法,文献(http://softsurfer.com/Archive/algorithm_0203/algorithm_0203.htm,2010.12)对其进行了改进,采用双向队列以O(n)时间复杂快速求解最大凸包。改进后的算法,基于简单多边形链表进行,前提是链表中的各顶点各不相同且按形成多边形的顺序排列。视景体的不同顶点在XOZ平面投影点可能重合,所以采用改进后的Melkman算法求解最大凸包前需要确保点的唯一性和顺序准确性2个问题。视景体投影形成最大凸包求解过程如下:
(1)点唯一性
遍历视景体投影后形成的各顶点,确保各顶点具有唯一性,若有相同的点,则只保留1个,最终顶点集合为S。
(2)点逆时针排序
将S中各顶点按横坐标X值递增排序,对于X值相同的点,则按Y值递增排序,最终排序后的有序顶点集合为S'。
(3)对S'内的点实施改进后的双向队列Melkman算法步骤(如图7所示)。
物体包围盒若采用AABB包围盒,则在XOZ平面投影形成的顶点为平行于XOZ平面4个顶点的X和Z坐标,Y值设定为0。
S3、通过判断场景对象的包围盒投影是否在最大凸包内,推断三维空间中物体是否在视景体范围内。
在步骤S3中,逆时针排序最大凸包顶点,通过判断投影后的点是否在每一条边的左侧来判断该顶点是否在凸多边形内。
令L为最大凸包逆时针排序的边集合,P为1个对象包围盒投影后的顶点集合,函数leftToLine(p,l)通过返回值判断点p与边l的位置关系:若leftToLine(p,l)>0,p位于边l的左侧;若leftToLine(p,l)<0,p位于边l的右侧;若leftToLine(p,l)=0,p位于边l上。
判断三维场景中对象是否在视景体内的依据为:
则包围盒一定在视景体内;
则包围盒与视景体相交;
&ForAll; p &Element; P , &ForAll; l &Element; L , leftToLine ( p , l ) < 0 , 则包围盒在视景体外。
实施例2计算量对比分析
由于场景中各物体采用AABB包围盒近似,通过判断物体包围盒与视景体的位置关系可以判定出物体与视景体的位置关系。图8对比了传统视景体裁剪步骤与2D-CFCM裁剪步骤的区别。根据改进的Melkman算法的时间复杂度可知,两者裁剪效率的差异主要体现在图8中的第4步。
应用传统视景体裁剪方法,对于物体O的立方体包围盒,通过计算立方体8个顶点与视景体包围盒各个面的位置关系,判断出物体是否在视景体范围内。若8个顶点都在视景体内,那么物体O一定在视景体内;若大于一个顶点在视景体内,那么物体与视景体相交;8个顶点都在视景体外,那么物体应该被裁剪。判断一个顶点p=(px,py,pz)与一个平面ax+by+cz+d=0的位置关系由:
n·p+d=nx*px+ny*py+nz*pz+d的符号来判断,其中,n=(nx,ny,nz)为平面的规范化法线。所以,判断1个顶点与1个平面的位置关系需要的计算量为:3次乘法和3次加法。对于立方体包围盒,传统视景体裁剪方法判断物体是否在视景体内的最坏情况计算量为:6平面×8个顶点×(3+3)次计算量,需要144次加法和144次乘法。
采用2D-VFCM方法,只需要判断立方体投影后的4个顶点与凸多边形的位置关系,顶点与边关系通过a*x+b*y+c的符号来判定,所以,判断物体是否在视景体内的最大计算量为:7条边×4个顶点×(2+2)次计算量,56次加法和56次乘法,效率为传统的视景体裁剪的2.6倍。视景体投影到XOZ平面时,形成的最大凸包为4~7条边(参见图6),所以2D-VFCM的视景体裁剪效率为传统的视景体裁剪的2.6~4.5倍。
图9对比了传统的视景体裁剪与2D-VFCM方法裁剪一个立方体包围盒所需的计算量及效率,横坐标括号中的数字表示判断1个立方体与视景体的位置关系所需的计算量,2D-VFCM括号前的数字表示视景体投影后形成凸多边形边的数目。
为了验证本发明方法的正确性,对比分别采用传统视景体裁剪和2D-VFCM裁剪时森林场景的绘制。实验环境如表下1所示:
表1实验环境
操作系统 Microsoft Windows XP
编程语言 C++
图形开发包 Microsof tDirectX SDK
显卡 NVIDIA GeForce 9800GTX+,512MB
CPU DualCore Intel Core2Duo E7400,2800MHz
内存 3327MB
通过实验发现,采用传统视景体裁剪方法和本发明2D-VFCM方法绘制的结果相同,如图10所示。绘制不同数量树木的对比结果如表下2所示:
表2绘制时间统计表
表2中T-VFCA表示传统视景体裁剪方法。从表2可知,采用2D-VFCM方法的效率比采用传统视景体裁剪的效率高,时间对比上与上一节分析的理论值有一定差距,主要是因为场景的绘制流程中除了视景体裁剪,还有很多其它操作,如alhpa测试、模板测试、深度测试、混合等。森林场景绘制实验证明了2D-VFCM的正确性和效率改进的有效性。
相比于现有技术的缺点和不足,本发明具有以下有益效果:本发明研究了视景体裁剪方法,针对水平方向上很少有重叠的场景,提出了2D-VFCM视景体裁剪方法。对比传统的视景体裁剪方法,2D-VFCM在效率的提升主要体现在将顶点与平面的位置关系判断,转换为顶点与线段的位置关系判断,从而实现了效率提升2.6~4.5倍。通过森林场景的绘制实验表明2D-VFCM方法是正确的、有效的,能应用于虚拟现实、飞行模拟、战场仿真与视频游戏等实时应用。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种虚拟场景中可视物体的二维裁剪生成方法,其特征在于包括以下步骤:
S1、在相同的坐标系中描述视景体和场景对象,并分别求解出视景体的8个顶点和场景对象各顶点在该坐标系下的坐标位置;
S2、将视景体和场景中物体投影在同一平面上,并求解出视景体投影点所构成的最大凸包;
S3、通过判断场景对象的包围盒投影是否在最大凸包内,推断三维空间中物体是否在视景体范围内。
2.如权利要求1所述的虚拟场景中可视物体的二维裁剪生成方法,其特征在于,在步骤S1中,所述坐标系为世界空间坐标系;所述视景体采用AABB包围盒来代替。
3.如权利要求2所述的虚拟场景中可视物体的二维裁剪生成方法,其特征在于,在步骤S1中,所述视景体的8个顶点位置的计算公式分别用函数定义为:
其中,Wn、Hn、Wf、Hf分别为近、远裁剪平面的宽度和高度;
Cn、Cf分别为近、远裁剪平面的中心,并且 其中,P为虚拟相机的位置Dn、Df分别为相机相距近、远裁剪平面的距离;为规范化后的3个标准向量。
4.如权利要求1所述的虚拟场景中可视物体的二维裁剪生成方法,其特征在于,在步骤S2中,所述最大凸包的求解包括以下具体过程:
遍历视景体投影后形成的各顶点,确保各顶点具有唯一性,若有相同的点,则只保留1个,最终顶点集合为S;
将S中各顶点按横坐标X值递增排序,对于X值相同的点,则按Y值递增排序,最终排序后的有序顶点集合为S';
对S'内的点实施改进后的双向队列Melkman算法步骤。
5.如权利要求4所述的虚拟场景中可视物体的二维裁剪生成方法,其特征在于,在所述对S'内的点实施改进后的双向队列Melkman算法步骤的步骤中,物体包围盒若采用AABB包围盒,则在XOZ平面投影形成的顶点为平行于XOZ平面4个顶点的X和Z坐标,Y值设定为0。
6.如权利要求1所述的虚拟场景中可视物体的二维裁剪生成方法,其特征在于,所述步骤S3步骤以下具体步骤:
逆时针排序最大凸包顶点,通过判断投影后的点是否在每一条边的左侧来判断该顶点是否在凸多边形内;
令L为最大凸包逆时针排序的边集合,P为1个对象包围盒投影后的顶点集合,函数leftToLine(p,l)通过返回值判断点p与边l的位置关系:若leftToLine(p,l)>0,p位于边l的左侧;若leftToLine(p,l)<0,p位于边l的右侧;若leftToLine(p,l)=0,p位于边l上;
判断三维场景中对象是否在视景体内,其中,若则包围盒在视景体内,若则包围盒与视景体相交,若 &ForAll; p &Element; P , &ForAll; l &Element; L , leftToLine ( p , l ) < 0 , 则包围盒在视景体外。
CN201410255051.9A 2014-06-10 2014-06-10 一种虚拟场景中可视物体的二维裁剪生成方法 Pending CN104050689A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410255051.9A CN104050689A (zh) 2014-06-10 2014-06-10 一种虚拟场景中可视物体的二维裁剪生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410255051.9A CN104050689A (zh) 2014-06-10 2014-06-10 一种虚拟场景中可视物体的二维裁剪生成方法

Publications (1)

Publication Number Publication Date
CN104050689A true CN104050689A (zh) 2014-09-17

Family

ID=51503471

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410255051.9A Pending CN104050689A (zh) 2014-06-10 2014-06-10 一种虚拟场景中可视物体的二维裁剪生成方法

Country Status (1)

Country Link
CN (1) CN104050689A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165209A1 (zh) * 2015-04-17 2016-10-20 青岛海信医疗设备股份有限公司 一种三维图像的裁剪方法
CN107274476A (zh) * 2017-08-16 2017-10-20 城市生活(北京)资讯有限公司 一种阴影图的生成方法及装置
CN111210515A (zh) * 2019-12-30 2020-05-29 成都赫尔墨斯科技股份有限公司 一种基于地形实时渲染的机载合成视觉系统
CN113536210A (zh) * 2021-06-04 2021-10-22 黄淮学院 基于向量遍历线结构光条纹中心坐标的计算方法
CN115147440A (zh) * 2022-07-12 2022-10-04 中国建筑西南设计研究院有限公司 一种基于面域裁剪法的基础放坡线自动生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070097118A1 (en) * 2005-10-28 2007-05-03 Reshetov Alexander V Apparatus and method for a frustum culling algorithm suitable for hardware implementation
CN102044084A (zh) * 2009-10-22 2011-05-04 上海杉达学院 三维图形的二维平面表现方法
CN102903146A (zh) * 2012-09-13 2013-01-30 中国科学院自动化研究所 用于场景绘制的图形处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070097118A1 (en) * 2005-10-28 2007-05-03 Reshetov Alexander V Apparatus and method for a frustum culling algorithm suitable for hardware implementation
CN102044084A (zh) * 2009-10-22 2011-05-04 上海杉达学院 三维图形的二维平面表现方法
CN102903146A (zh) * 2012-09-13 2013-01-30 中国科学院自动化研究所 用于场景绘制的图形处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DONG HAN ET AL: "2D View Frustum Culling Method for 3D Objects", 《ENERGY PROCEDIA》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165209A1 (zh) * 2015-04-17 2016-10-20 青岛海信医疗设备股份有限公司 一种三维图像的裁剪方法
CN107274476A (zh) * 2017-08-16 2017-10-20 城市生活(北京)资讯有限公司 一种阴影图的生成方法及装置
CN107274476B (zh) * 2017-08-16 2020-12-18 城市生活(北京)资讯有限公司 一种阴影图的生成方法及装置
CN111210515A (zh) * 2019-12-30 2020-05-29 成都赫尔墨斯科技股份有限公司 一种基于地形实时渲染的机载合成视觉系统
CN113536210A (zh) * 2021-06-04 2021-10-22 黄淮学院 基于向量遍历线结构光条纹中心坐标的计算方法
CN115147440A (zh) * 2022-07-12 2022-10-04 中国建筑西南设计研究院有限公司 一种基于面域裁剪法的基础放坡线自动生成方法
CN115147440B (zh) * 2022-07-12 2024-04-19 中国建筑西南设计研究院有限公司 一种基于面域裁剪法的基础放坡线自动生成方法

Similar Documents

Publication Publication Date Title
US11461958B2 (en) Scene data obtaining method and model training method, apparatus and computer readable storage medium using the same
CN104050689A (zh) 一种虚拟场景中可视物体的二维裁剪生成方法
US10691927B2 (en) Image deformation processing method and apparatus, and computer storage medium
US9842417B2 (en) Computing device and method for simplifying point cloud of object
CN101599181B (zh) 一种代数b样条曲面的实时绘制方法
CN103646416A (zh) 一种三维卡通人脸纹理生成方法及设备
US20200319334A1 (en) Millimeter wave radar modeling-based method for object visibility determination
EP3109796A1 (en) Method and device for recognizing road scene as well as relevant program and non-transitory computer-readable medium
CN104183016A (zh) 一种快速的2.5维建筑物模型的构建方法
CN104156520B (zh) 一种基于直线投影的凸多面体碰撞检测方法
CN104183019A (zh) 用于重建3d线的方法
Narkawicz et al. Algorithms for collision detection between a point and a moving polygon, with applications to aircraft weather avoidance
CN104240290B (zh) 一种基于包围球模型的三维电缆相交检测方法
US20190213780A1 (en) Image space-based particle generation modeling
KR20120104071A (ko) 입체영상 시각효과 처리 방법
CN104677347A (zh) 一种基于Kinect生成三维导航地图室内移动机器人
US20180286111A1 (en) Cross determining program, cross determining method, and cross determining apparatus
CN105243137A (zh) 一种基于草图的三维模型检索视点选择方法
CN103425806A (zh) 三次元编程产品模拟系统及方法
CN102663805A (zh) 一种基于投影的视锥体裁剪的方法
KR101032397B1 (ko) 구면 좌표계를 사용하는 3차원 형상 표현장치 및 방법
US20230169680A1 (en) Beijing baidu netcom science technology co., ltd.
CN104952103A (zh) 一种视点依赖的阴影贴图创建方法
JP2020035216A (ja) 画像処理装置、方法及びプログラム
CN103679794A (zh) 模拟三维素描铅笔画的绘制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140917