CN102467756B - 用于三维场景的透视方法及装置 - Google Patents
用于三维场景的透视方法及装置 Download PDFInfo
- Publication number
- CN102467756B CN102467756B CN201010532242.7A CN201010532242A CN102467756B CN 102467756 B CN102467756 B CN 102467756B CN 201010532242 A CN201010532242 A CN 201010532242A CN 102467756 B CN102467756 B CN 102467756B
- Authority
- CN
- China
- Prior art keywords
- perspective
- vision area
- mouse
- dimensional image
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
Abstract
本发明公开了一种用于三维场景的透视方法,包括:获取与透视摄像机相关的参数以及与透视视区相关的参数;根据与透视摄像机相关的参数,确定将要进行渲染的三维场景;对所确定的三维场景执行渲染以获得在所述透视视区中呈现的二维图像;以及合成所述在所述透视视区中呈现的二维图像和在总场景视区中呈现的二维图像。采用本发明的方法,能够以用户可控制的方式透视被遮挡的三维场景,并进而可以在所透视的三维场景中选定物体以进行操作,而无需对遮挡物体进行操作,从而具有简单、易操作、效率高的优点。
Description
技术领域
本发明涉及计算机三维技术,具体地说,涉及在三维场景中透视被遮挡物体,从而编辑或操作被遮挡物体的技术。
背景技术
当前,三维(3D)场景的制作已广泛应用于计算机动画、虚拟现实、游戏场景、景观设计、建筑设计等领域。对于三维场景的设计者,需要对三维物体进行建模和编辑;而对于三维场景的使用者,有时也需要在三维场景中创建或编辑三维物体。
然而,在三维场景中,各物体由于空间位置不同,会出现某个物体被其它物体遮挡的情形。尤其对于复杂三维场景或者具有复杂装配关系的物体而言,位于三维场景较深处的物体或模型内部的物体,通常都会被其它物体遮挡。在这种情况下,当需要对被遮挡物体进行修改(例如更换物体、移动位置、转向、改变尺寸等)时,需要避开遮挡物体以对被遮挡物体进行操作。
通常,可以采用两种方法以避开遮挡物体而对被遮挡物体进行操作。一种方法是改变场景摄像机的位置,通常场景摄像机代表用户的视角,即屏幕,因此,通过将场景摄像机设置在遮挡物体之后,能够使被遮挡物体可以被看见并进行修改。另一种方法是直接移走遮挡物体,以使被遮挡物体露出,从而对其进行操作,并在操作完毕后,将遮挡物复原。但是,这两种方法都存在操作不方便、效率低下的问题。
发明内容
本发明正是鉴于上述技术问题而提出的,其目的在于提供一种用于三维场景的透视方法及装置,其能够以用户可控制的方式透视被遮挡的三维场景,并进而可以在所透视的三维场景中选定物体以进行操作,而无需对遮挡物体进行操作,从而具有简单、易操作、效率高的优点。
根据本发明的一个方面,提供一种用于三维场景的透视方法,包括:接收与透视摄像机相关的参数以及与透视视区相关的参数;根据所述与透视摄像机相关的参数,确定将要进行渲染的三维场景;对所确定的三维场景执行渲染以获得在所述透视视区中呈现的二维图像;以及合成所述在所述透视视区中呈现的二维图像和在总场景视区中呈现的二维图像。
根据本发明的另一个方面,提供一种用于三维场景的透视装置,包括:接收模块,用于接收与透视摄像机相关的参数以及与透视视区相关的参数;场景确定模块,用于根据所述与透视摄像机相关的参数,确定将要进行渲染的三维场景;渲染模块,用于对所确定的三维场景执行渲染以获得在所述透视视区中呈现的二维图像;以及合成模块,用于合成所述在所述透视视区中呈现的二维图像和在总场景视区中呈现的二维图像。
附图说明
图1是根据本发明的一个实施例的用于三维场景的透视方法的流程图;
图2是说明三维场景中摄像机模型的示意图;
图3是说明使用图1所示实施例的透视方法的三维渲染过程的一个例子的示意图;
图4是根据本发明的另一个实施例的用于三维场景的透视方法的流程图;
图5是说明根据本发明的实施例的透视方法的使用的示意图;
图6是根据本发明的一个实施例的用于三维场景的透视装置的示意图;
图7是根据本发明的另一个实施例的用于三维场景的透视装置的示意图。
具体实施方式
相信通过以下结合附图对本发明的具体实施例的详细描述,本发明的上述和其它目的、特征和优点将会变得更加明显。
图1是根据本发明的一个实施例的用于三维场景的透视方法的流程图。下面结合附图,对本实施例进行详细描述。
如图1所示,在步骤S101,获取与透视摄像机相关的参数以及与透视视区相关的参数。
在三维场景的渲染过程中,摄像机的作用是确定三维场景中哪些三维物体可以转换成二维图像,视区则用于剪裁和呈现二维图像。为了在三维场景中实现对被遮挡物的透视,在本实施例中,除了原有的用于整个三维场景的总场景摄像机和总场景视区之外,还引入了专门用于透视场景的透视摄像机和透视视区。通过设置透视摄像机和透视视区,可以选择并呈现期望透视的物体。
在本实施例中,与透视摄像机相关的参数可包括:透视摄像机的位置和方向以及可视体的视角、近剪裁面和远剪裁面。如图2所示,透视摄像机的位置(即视点)用于表明透视摄像机在三维空间的位置,通常采用坐标表示。透视摄像机的方向包含透视摄像机的朝向和“向上”的方向。可视体是由视角、近剪裁面和远剪裁面组成的平截台体,只有位于可视体内的物体被显示。可视体的视角包括纵向视角和横向视角,用于确定透视摄像机的视野。近剪裁面和远剪裁面用从透视摄像机的位置到各个剪裁面的距离D1、D2表示。通过调整可视体的视角以及近、远剪裁面,可以选择可视体所包含的三维场景,从而使透视摄像机“看见”不同的二维图像。虽然参照图2仅描述了透视摄像机的相关参数,但本领域的普通技术人员知道,总场景摄像机也具有相同的参数。
另外,与透视视区相关的参数包括透视视区的位置、形状以及尺寸。在本实施例中,透视视区的位置与将要透视的被遮挡物体相关联,通常用左上角点的坐标表示。透视视区的形状可以是任意的形状,例如矩形、圆形、多边形等形状。透视视区的尺寸根据形状采用相应的参数,例如,对于矩形形状的透视视区,其尺寸用矩形的长度和宽度指定。对于总场景视区,其形状一般是矩形,尺寸与屏幕的尺寸相同。
上述的与透视摄像机和透视视区相关的参数可以由使用者设置,但为了方便起见,也可以只将部分参数定义为使用者可设置,例如,近、远剪裁面、透视视区的位置、形状和尺寸等。
接着,在步骤S105,根据所获得的与透视摄像机相关的参数,确定将要进行渲染的三维场景。
如前所述,只有在可视体内的物体才会被显示,并且使用者通过调整可视体的相关参数,例如近剪裁面或远剪裁面,可以调整可视体的大小,从而确定不同的将要显示的三维场景。因此,根据视角、近剪裁面和远剪裁面所组成的可视体,保留可视体内的三维场景,并除去可视体外的三维场景,这个过程也称为裁剪。
然后,在步骤S110,对于所确定三维场景执行渲染以获得在透视视区中呈现的二维图像。
在本实施例中,首先,将所确定的三维场景转换成二维图像,该过程也称为投影。在投影过程中采用透视变换,由于透视变换可以使远离摄像机的场景在显示时变小,因此,能够更真切地在二维图像中反映三维场景。另外,在三维场景中,距离摄像机远的物体先被投影,然后由远及近地依次对其它物体进行投影。
然后,根据与透视视区相关的参数,对所投影的二维图像进行剪裁并呈现在透视视区上。在本实施例中,由于透视视区的位置、形状和大小已经确定,因此,可以将所投影的二维图像相应地剪裁成符合透视视区的二维图像,并将其呈现在透视视区上。
接着,在步骤S115,对在透视视区中呈现的二维图像和在总场景视区中呈现的二维图像进行合成。在本实施例中,根据透视视区和总场景视区的各自位置,将透视视区叠加在总场景视区上,从而得到合成的二维图像。当然,本领域的普通技术人员应当知道,该步骤还可以采用其它的合成方法。最后,合成的二维图像被提供给帧缓存器,用于随后的显示。
通过以上描述可以看出,本实施例的透视方法根据来自使用者的与透视摄像机和透视视区相关的参数而对相应的三维场景进行渲染,并进而将所获得的二维图像与总场景视区的二维图像进行合成,从而能够以使用者可控制的方式透视被遮挡的三维场景,而无需对遮挡物体进行操作。
图3是说明使用图1所示实施例的透视方法的三维渲染过程的一个例子的示意图。在图3所示的三维渲染过程中,包含两个并行的渲染过程:总场景的渲染过程(参见图3的左侧)和透视场景的渲染过程(参见图3的右侧),其中,透视场景的渲染过程使用图1所示实施例的透视方法。在本例中,描述三维场景的三维场景数据被存储在数据库或文件系统中。在总场景的渲染过程中,首先根据总场景摄像机的相关数据,将相应的三维场景数据转换成二维图像数据,然后根据总场景视区的相关数据,将二维图像数据呈现在总场景视区中。与之并行地,在透视场景的渲染过程中,根据来自使用者的透视摄像机的相关数据,将相应的三维场景数据转换成二维图像数据,然后,根据透视视区的相关数据,将二维图像数据呈现在透视视区中。然后,总场景视区中的二维图像与透视视区中的二维图像进行合成,并提供给帧缓存器以输出。
图4示出了根据本发明的另一个实施例的用于三维场景的透视方法的流程图。下面结合附图对本实施例进行详细描述,其中对于与前面实施例相同的部分,采用相同的附图标记,并适当省略其说明。
本实施例的透视方法,除了包括图1所示的实施例的步骤之外,还包括以下的操作。
当在屏幕上显示了合成的二维图像之后,在步骤S401,获取鼠标在屏幕上的操作事件,例如鼠标点击(click)、鼠标移动(mouseMove)、鼠标悬停(mouseOver)等。
接着,在步骤S405,判断鼠标是否在透视视区内。一般地,这可以通过鼠标在屏幕上的坐标来判断。如果鼠标的坐标位于透视视区内,则表明鼠标在透视视区内;如果鼠标的坐标位于透视视区外,则表明鼠标在总场景视区内。
然后,当鼠标在透视视区内时,在步骤S410,根据与透视摄像机相关的参数,选定鼠标所指定的物体。在本例中,首先将鼠标的屏幕坐标转换成远剪裁面上的一个点的坐标,其中该点的x轴坐标是鼠标的屏幕坐标中的横坐标,该点的y轴坐标是鼠标的屏幕坐标中的纵坐标,该点的z轴坐标是透视摄像机的z轴坐标和远剪裁面的距离。然后,与从透视摄像机的位置到上述的远剪裁面上的一个点之间的连线相交的第一个位于可视体内的物体被确定为所选定的物体。当鼠标在透视视区之外时,在步骤S415,根据总场景摄像机的相关参数,采用与上述在透视视区内选定鼠标所指定的物体的方法相同的方法,选定鼠标所指定的物体。本领域的普通技术人员应当知道还可以使用其它的用于选定鼠标所指定的物体的方法。对于被选定的物体,使用者可以进一步进行编辑。
通过以上描述可以看出,本实施例的透视方法除了能够以使用者可控制的方式透视被遮挡的三维场景之外,还进一步能够在所透视的三维场景中选定鼠标所指定的物体,以方便使用者的编辑。
下面通过一个例子说明上述实施例的透视方法的应用,其中,图5(a)示出使用透视方法之前的场景的示意图,图5(b)示出了使用透视方法之后的场景的示意图。为了简化起见,图5仅示出了一个遮挡物体和一个被遮挡物体,但本领域的普通技术人员能够理解,在场景中还可以包括很多其它物体。
如图5(a)所示,方框代表屏幕,即总场景视区,圆柱体遮挡了位于其后的物体的一部分。在这种情况下,使用者不能确定被圆柱体遮挡的物体的形状及大小,也很难对该物体进行编辑和操作。在使用了本发明的实施例的透视方法之后,被遮挡物体能够被看见,如图5(b)所示。在图5(b)中,大方框依旧代表总场景视区,而小方框代表透视视区。在透视视区中,被圆柱体遮挡的物体被显示,从而方便使用者进行编辑和操作。
在同一个发明构思下,图6示出了根据本发明的一个实施例的用于三维场景的透视装置600的示意图。下面根据附图,对本实施例进行详细描述,其中对于与前面的实施例相同的部分,适当省略其描述。
如图6所示,本实施例的透视装置600包括:参数获取模块601,其获取与透视摄像机相关的参数以及与透视视区相关的参数;场景确定模块602,其根据由参数获取模块601获取的与透视摄像机相关的参数,确定将要进行渲染的三维场景;渲染模块603,其对场景确定模块602所确定的三维场景执行渲染以获得在透视视区中呈现的二维图像;以及合成模块604,其合成在透视视区中呈现的二维图像和在总场景视区中呈现的二维图像。
关于与透视摄像机相关的参数和与透视视区相关的参数,在前面实施例中已经详细说明,此处适当省略其说明。这些参数可由使用者设置,并由参数获取模块601获得。
然后,在场景确定模块602中,根据参数获取模块601所获取的与透视摄像机相关的参数,确定将要进行渲染的三维场景,即由与透视摄像机相关的参数中视角、近剪裁面和远剪裁面构成的可视体内的三维场景。
在渲染模块603中,转换单元6031将场景确定模块602所确定的三维场景转换成二维图像。在本实施例中,转换单元6031采用透视变换。然后,剪裁单元6032根据参数获取模块601所接收的与透视视区相关的参数,将转换后的二维图像剪裁成符合透视视区的二维图像,并通过呈现单元6033呈现在透视视区中。
通过渲染模块603获得的透视视区中的二维图像被提供给合成模块604,由合成模块604将其与总场景视区中的二维图像进行合成,并输出给帧缓存器(未示出)以在随后显示在屏幕上。
应当指出,本实施例的透视装置600在操作上能够实现如图1所示的透视方法。
图7示出了根据本发明的另一个实施例的用于三维场景的透视装置700的示意图。下面结合附图对本实施例进行详细描述,其中对于与前面实施例相同的部分,采用相同的附图标记,并适当省略其说明。
本实施例的透视装置700除了包括上述的参数获取模块601、场景确定模块602、渲染模块603和合成模块604之外,还包括:鼠标事件获取模块701,其获取鼠标的操作事件;判断模块702,其判断鼠标是否在透视视区内;以及物体选定模块703,其当鼠标在透视视区之内时,根据参数获取模块601所获取的与透视摄像机相关的参数,选定鼠标所指定的物体;并且当鼠标在透视视区之外时,根据总场景摄像机的相关参数,选定鼠标所指定的物体。
在本实施例中,当鼠标在屏幕上进行操作时,例如点击、移动、悬停等,鼠标事件获取模块701就获得相应的鼠标操作事件。响应于鼠标事件获取模块701获得鼠标操作事件,判断模块702根据鼠标的屏幕坐标判断其是否在透视视区内,其判断结果被提供给物体选定模块703。在物体选定模块703中,当鼠标在透视视区内时,采用前面所述的选定物体的方法,根据与透视摄像机相关的参数,选定鼠标所指定的物体。当鼠标不在透视视区内,即在总场景视区内时,则根据与总场景摄像机相关的参数进行物体的选定。
应当指出,本实施例的透视装置700在操作上能够实现如图4所示的透视方法。
以上所公开的实施例的方法可以在软件、硬件、或软件和硬件的结合中实现。硬件部分可以利用专用逻辑来实现。例如,上述实施例中的用于三维场景的透视装置及其各个组成部分可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合实现。软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器、个人计算机(PC)或大型机来执行。
以上虽然通过示例性的实施例详细描述了本发明的用于三维场景的透视方法和透视装置,但是以上这些实施例并不是穷举的,本领域技术人员可以在本发明的精神和范围内实现各种变化和修改。因此,本发明并不限于这些实施例,本发明的范围仅由所附的权利要求限定。
Claims (9)
1.一种用于三维场景的透视方法,包括:
获取与透视摄像机相关的参数以及与透视视区相关的参数;
根据所述与透视摄像机相关的参数,确定将要进行渲染的三维场景;
对所确定的三维场景执行渲染以获得在所述透视视区中呈现的二维图像;以及
合成所述在所述透视视区中呈现的二维图像和在总场景视区中呈现的二维图像,
其中,所述对所确定的三维场景执行渲染以获得在所述透视视区中呈现的二维图像的步骤包括:
将所确定的三维场景转换成二维图像;以及
根据所述与透视视区相关的参数,对转换后的二维图像进行剪裁并呈现在所述透视视区中。
2.根据权利要求1所述的透视方法,其中,所述与透视摄像机相关的参数包括:所述透视摄像机的位置和方向以及可视体的视角、近剪裁面和远剪裁面。
3.根据权利要求1所述的透视方法,其中,所述与透视视区相关的参数包括:所述透视视区的位置、形状以及尺寸。
4.根据权利要求2所述的透视方法,还包括:
获取鼠标的操作事件;
判断所述鼠标是否在所述透视视区内;
如果判断为所述鼠标在所述透视视区之内,则根据所述与透视摄像机相关的参数,选定所述鼠标所指定的物体。
5.根据权利要求4所述的透视方法,还包括:
如果判断为所述鼠标在所述透视视区之外,则根据总场景摄像机的相关参数,选定所述鼠标所指定的物体,其中所述总场景摄像机的相关参数包括:所述总场景摄像机的位置和方向以及可视体的视角、近剪裁面和远剪裁面。
6.一种用于三维场景的透视装置,包括:
参数获取模块,用于获取与透视摄像机相关的参数以及与透视视区相关的参数;
场景确定模块,用于根据所述与透视摄像机相关的参数,确定将要进行渲染的三维场景;
渲染模块,用于对所确定的三维场景执行渲染以获得在所述透视视区中呈现的二维图像;以及
合成模块,用于合成所述在所述透视视区中呈现的二维图像和在总场景视区中呈现的二维图像,
其中,所述渲染模块包括:
转换单元,用于将所确定的三维场景转换成二维图像;
剪裁单元,用于根据所述与透视视区相关的参数,对转换后的二维图像进行剪裁;以及
呈现单元,用于将剪裁后的二维图像呈现在所述透视视区中。
7.根据权利要求6所述的透视装置,其中,所述与透视摄像机相关的参数包括:所述透视摄像机的位置和方向以及可视体的视角、近剪裁面和远剪裁面。
8.根据权利要求6所述的透视装置,其中,所述与透视视区相关的参数包括:所述透视视区的位置、形状以及尺寸。
9.根据权利要求7所述的透视装置,还包括:
鼠标事件获取模块,用于获取鼠标的操作事件;
判断模块,用于判断所述鼠标是否在所述透视视区内;以及
物体选定模块,用于在所述判断模块判断为所述鼠标在所述透视视区之内时,根据所述与透视摄像机相关的参数,选定所述鼠标所指定的物体。
10.根据权利要求9所述的透视装置,其中,所述物体选定模块还被配置为在所述判断模块判断为所述鼠标在所述透视视区之外时,根据总场景摄像机的相关参数,选定所述鼠标所指定的物体,其中所述总场景摄像机的相关参数包括:所述总场景摄像机的位置和方向以及可视体的视角、近剪裁面和远剪裁面。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010532242.7A CN102467756B (zh) | 2010-10-29 | 2010-10-29 | 用于三维场景的透视方法及装置 |
US13/283,795 US8970586B2 (en) | 2010-10-29 | 2011-10-28 | Building controllable clairvoyance device in virtual world |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010532242.7A CN102467756B (zh) | 2010-10-29 | 2010-10-29 | 用于三维场景的透视方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102467756A CN102467756A (zh) | 2012-05-23 |
CN102467756B true CN102467756B (zh) | 2015-11-25 |
Family
ID=45996191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010532242.7A Active CN102467756B (zh) | 2010-10-29 | 2010-10-29 | 用于三维场景的透视方法及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8970586B2 (zh) |
CN (1) | CN102467756B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810748B (zh) * | 2012-11-08 | 2019-02-12 | 北京京东尚科信息技术有限公司 | 3d模拟系统构建、管理方法及3d模拟装置 |
CN104063207B (zh) * | 2013-03-20 | 2018-11-09 | 腾讯科技(深圳)有限公司 | 一种逻辑窗口的点击命中方法及系统 |
CN103686140A (zh) * | 2013-12-30 | 2014-03-26 | 张瀚宇 | 一种基于预定场地的三维物体的投影制作方法 |
WO2016054800A1 (en) | 2014-10-10 | 2016-04-14 | Empire Technology Development Llc | Scene image generator |
CN104835198B (zh) * | 2015-05-19 | 2018-09-14 | 网易(杭州)网络有限公司 | 游戏场景展示方法和装置 |
CN105204618B (zh) * | 2015-07-22 | 2018-03-13 | 深圳多新哆技术有限责任公司 | 虚拟空间中虚拟物件的投影显示方法及装置 |
CN105468353B (zh) * | 2015-11-06 | 2020-06-09 | 网易(杭州)网络有限公司 | 一种界面动画的实现方法及装置、移动终端和电脑终端 |
CN105427371B (zh) * | 2015-12-22 | 2017-12-08 | 中国电子科技集团公司第二十八研究所 | 一种三维透视投影场景中保持图形对象等像素面积显示的方法 |
CN105913473A (zh) * | 2015-12-27 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种卷页特效的实现方法及系统 |
CN106204713B (zh) * | 2016-07-22 | 2020-03-17 | 网易(杭州)网络有限公司 | 静态合并处理方法和装置 |
CN106791630A (zh) * | 2016-12-12 | 2017-05-31 | 大连文森特软件科技有限公司 | 一种基于ar 虚拟现实技术的楼房建造监管系统 |
CN106791629A (zh) * | 2016-12-12 | 2017-05-31 | 大连文森特软件科技有限公司 | 一种基于ar虚拟现实技术的楼房建造设计系统 |
CN108510433B (zh) * | 2017-02-28 | 2020-03-24 | 贝壳找房(北京)科技有限公司 | 空间展示方法、装置及终端 |
US10778993B2 (en) * | 2017-06-23 | 2020-09-15 | Mediatek Inc. | Methods and apparatus for deriving composite tracks with track grouping |
US10565747B2 (en) | 2017-09-06 | 2020-02-18 | Nvidia Corporation | Differentiable rendering pipeline for inverse graphics |
US11763517B1 (en) * | 2020-02-27 | 2023-09-19 | Apple Inc. | Method and device for visualizing sensory perception |
WO2021249390A1 (zh) * | 2020-06-12 | 2021-12-16 | 贝壳技术有限公司 | 实现增强现实的方法和装置、存储介质、电子设备 |
CN112717381B (zh) * | 2021-01-25 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 虚拟场景展示方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101006933A (zh) * | 2006-01-23 | 2007-08-01 | 西门子公司 | 用于显示三维对象的方法和设备 |
CN101529924A (zh) * | 2006-10-02 | 2009-09-09 | 株式会社东芝 | 用于产生立体图像的方法、装置和计算机程序产品 |
CN101686335A (zh) * | 2008-09-28 | 2010-03-31 | 新奥特(北京)视频技术有限公司 | 一种图像三维模型的获取方法和装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6912293B1 (en) * | 1998-06-26 | 2005-06-28 | Carl P. Korobkin | Photogrammetry engine for model construction |
US6222465B1 (en) | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
JP3497499B2 (ja) * | 2002-03-14 | 2004-02-16 | 三菱電機株式会社 | 三次元グラフィック描画装置 |
US6671651B2 (en) | 2002-04-26 | 2003-12-30 | Sensable Technologies, Inc. | 3-D selection and manipulation with a multiple dimension haptic interface |
US7466303B2 (en) | 2004-02-10 | 2008-12-16 | Sunnybrook Health Sciences Center | Device and process for manipulating real and virtual objects in three-dimensional space |
US7576725B2 (en) | 2004-10-19 | 2009-08-18 | Microsoft Corporation | Using clear-coded, see-through objects to manipulate virtual objects |
WO2006081362A2 (en) | 2005-01-27 | 2006-08-03 | Aperio Technologies, Inc | Systems and methods for viewing three dimensional virtual slides |
US7649976B2 (en) | 2006-02-10 | 2010-01-19 | The Boeing Company | System and method for determining dimensions of structures/systems for designing modifications to the structures/systems |
KR100738500B1 (ko) * | 2006-02-20 | 2007-07-12 | 한국과학기술원 | 영상 기반 돌출 변위 매핑 방법과, 이를 이용한 이중 변위매핑 방법 |
US7609264B2 (en) * | 2006-03-29 | 2009-10-27 | Microsoft Corporation | Shell radiance texture function |
JP4931240B2 (ja) * | 2007-09-13 | 2012-05-16 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像の認識を支援するシステム |
US8161087B2 (en) | 2008-12-30 | 2012-04-17 | Sap France | Displaying and manipulating virtual objects on virtual surfaces |
JP5302763B2 (ja) * | 2009-05-11 | 2013-10-02 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US9533418B2 (en) * | 2009-05-29 | 2017-01-03 | Cognex Corporation | Methods and apparatus for practical 3D vision system |
US9508191B2 (en) * | 2010-07-23 | 2016-11-29 | Pacific Data Images Llc | Optimal point density using camera proximity for point-based global illumination |
-
2010
- 2010-10-29 CN CN201010532242.7A patent/CN102467756B/zh active Active
-
2011
- 2011-10-28 US US13/283,795 patent/US8970586B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101006933A (zh) * | 2006-01-23 | 2007-08-01 | 西门子公司 | 用于显示三维对象的方法和设备 |
CN101529924A (zh) * | 2006-10-02 | 2009-09-09 | 株式会社东芝 | 用于产生立体图像的方法、装置和计算机程序产品 |
CN101686335A (zh) * | 2008-09-28 | 2010-03-31 | 新奥特(北京)视频技术有限公司 | 一种图像三维模型的获取方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US20120105446A1 (en) | 2012-05-03 |
US8970586B2 (en) | 2015-03-03 |
CN102467756A (zh) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102467756B (zh) | 用于三维场景的透视方法及装置 | |
US11663785B2 (en) | Augmented and virtual reality | |
AU2021203688B2 (en) | Volumetric depth video recording and playback | |
US20230083703A1 (en) | Capturing Environmental Features Using 2D and 3D Scans | |
US11494995B2 (en) | Systems and methods for virtual and augmented reality | |
US9607437B2 (en) | Generating augmented reality content for unknown objects | |
JP5011224B2 (ja) | 任意視点映像生成装置及び任意視点映像生成プログラム | |
US20140181630A1 (en) | Method and apparatus for adding annotations to an image | |
CN102089786B (zh) | 在性能分析期间将图形指令映射到相关联的图形数据的方法和设备 | |
KR20140145217A (ko) | 공간정보를 이용한 3차원 가상 모델링 시스템 및 그 방법 | |
CN103970518A (zh) | 一种逻辑窗口的3d渲染方法和装置 | |
CN101784980A (zh) | 遥控操作装置及遥控操作方法 | |
WO2014094874A1 (en) | Method and apparatus for adding annotations to a plenoptic light field | |
JPH09319896A (ja) | 3次元画像作成装置 | |
WO2005027050A3 (de) | Verfahren zur darstellung von 3d bilddaten | |
KR20090092153A (ko) | 이미지 처리 장치 및 방법 | |
KR100731266B1 (ko) | 3차원 입체 영상의 신호 처리 장치 및 방법 | |
JP2010250696A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Zhu et al. | Synthesizing 360-degree live streaming for an erased background to study renovation using mixed reality | |
JP2017084215A (ja) | 情報処理システム、その制御方法、及びプログラム | |
CN113253840B (zh) | 多参与模式的人工现实系统 | |
JP2005208867A (ja) | 3次元コンピュータ・グラフィックス・モデリング・システム | |
JP7378960B2 (ja) | 画像処理装置、画像処理システム、画像生成方法、および、プログラム | |
Havemann et al. | 3D-Powerpoint-Towards a Design Tool for Digital Exhibitions of Cultural Artifacts. | |
CN117839223A (zh) | 游戏编辑预览方法、装置、存储介质与电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |