CN112184922B - 二维视频与三维场景的融合方法、装置、设备及存储介质 - Google Patents
二维视频与三维场景的融合方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112184922B CN112184922B CN202011103846.XA CN202011103846A CN112184922B CN 112184922 B CN112184922 B CN 112184922B CN 202011103846 A CN202011103846 A CN 202011103846A CN 112184922 B CN112184922 B CN 112184922B
- Authority
- CN
- China
- Prior art keywords
- fused
- coordinates
- video
- scene
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims description 8
- 230000004927 fusion Effects 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 21
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本发明涉及一种二维视频与三维场景的融合方法、装置、设备及存储介质。该方法包括:获取待融合场景的深度纹理信息和像素值;根据深度纹理信息和像素点视口坐标得到世界坐标;根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;指定投影方式根据用户设置生成;根据世界坐标计算待融合像素点对应待融合视频的纹理坐标;以纹理坐标和视口坐标为标准,结合像素值进行待融合视频和待融合场景的融合。上述方法采用深度纹理计算三维场景的坐标,并借助阴影体算法实现视频向场景的投影,以此实现视频与场景的无缝融合。
Description
技术领域
本发明涉及视频场景融合技术领域,具体涉及一种二维视频与三维场景的融合方法、装置、设备及存储介质。
背景技术
随着软件技术的发展,三维场景的展示技术也日益精进。而三维场景的展示可应用于多个领域。三维场景展示中会涉及到场景与视频的融合,例如游戏场景中的三维场景与视频的融合,或是监控领域中的场景与视频的融合。显然,三维场景与视频的融合效果直接影响着展示效果及用户体验。
现有的场景与视频融合技术多使用视频直接贴模型或对视频进行竖向投影,这些方法投影出的视频在三维场景中通常只有中心区域能近似贴合,越往四周则误差越大,产生四周区域视频与场景偏差较大的现象,导致投射的视频会出现扭曲现象。
发明内容
有鉴于此,本发明的目的在于克服现有技术的不足,提供一种二维视频与三维场景的融合方法、装置、设备及存储介质。
为实现以上目的,本发明采用如下技术方案:
一种二维视频与三维场景的融合方法,包括:
获取待融合场景的深度纹理信息和像素值;
根据所述深度纹理信息和像素点视口坐标得到世界坐标;
根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;所述指定投影方式根据用户设置生成;
根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标;
以所述纹理坐标和所述视口坐标为标准,结合所述像素值进行所述待融合视频和所述待融合场景的融合。
可选的,所述根据所述深度纹理信息和像素点视口坐标得到世界坐标,包括:
根据所述深度纹理信息计算所述待融合场景的像素点的深度值;
根据所述深度值和所述像素点视口坐标计算所述待融合场景中的像素点对应的投影坐标;
根据所述投影坐标得到像素点的所述世界坐标。
可选的,所述根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标,包括:
根据预设的视频参数确定世界坐标到视频纹理坐标的变换矩阵;
根据所述变换矩阵将所述待融合像素点的世界坐标转换为对应所述待融合视频,进而确定所述纹理坐标。
可选的,所述根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点,包括:
利用指定投影方式构造阴影体;
通过所述阴影体过滤所述待融合场景内的像素点,利用所述阴影体算法得到与处于所述阴影体内的像素点,作为所述待融合像素点。
可选的,所述以所述纹理坐标和所述视口坐标为标准,结合所述像素值进行所述待融合视频和所述待融合场景的融合,包括:
以所述纹理坐标为标注获取所述待融合视频内对应的视频像素;
将所述视频像素与所述视口坐标对应的所述待融合场景进行融合。
可选的,所述指定投影方式包括:从地形上方向正下方投射,从建筑物前方向建筑物投射,和/或以某个实际存在的摄像头的位置和角度为参数投射。
一种二维视频与三维场景的融合装置,包括:
信息获取模块,用于获取待融合场景的深度纹理信息和像素值;
世界坐标获取模块,用于根据所述深度纹理信息和像素点视口坐标得到世界坐标;融合像素点获取模块,用于根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;所述指定投影方式根据用户设置生成;
纹理坐标计算模块,用于根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标;
视频场景融合模块,用于以所述纹理坐标和所述视口坐标为标准,结合所述像素值进行所述待融合视频和所述待融合场景的融合。
可选的,所述世界坐标获取模块,包括:
深度值计算单元,用于根据所述深度纹理信息计算所述待融合场景的像素点的深度值;
投影坐标计算模块,用于根据所述深度值和所述像素点视口坐标计算所述待融合场景中的像素点对应的投影坐标;
世界坐标计算单元,用于根据所述投影坐标得到像素点的所述世界坐标。
一种二维视频与三维场景的融合设备,包括:
处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序,所述计算机程序至少用于执行上述所述的二维视频与三维场景的融合方法;
所述处理器用于调用并执行所述存储器中的所述计算机程序。
一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如上述所述的二维视频与三维场景的融合方法中各个步骤。
本申请提供的技术方案可以包括以下有益效果:
本申请中公开了一种二维视频与三维场景的融合方法,包括:获取待融合场景的深度纹理信息和像素值;根据深度纹理信息和像素视口坐标得到世界坐标;根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;指定投影方式根据用户设置生成;计算待融合像素点对应待融合视频的纹理坐标;以纹理坐标和视口坐标为标准,结合像素值进行待融合视频和待融合场景的融合。上述方法中利用场景的深度纹理信息和像素视口坐标得到世界坐标,然后再利用阴影体算法得到对应于待融合视频的纹理坐标,最后以纹理坐标和世界坐标为准进行视频与场景融合,可保证渲染出的视频与场景进行无缝融合,视频内部亦不会出现任何扭曲变形现象。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的二维视频与三维场景的融合方法的流程图;
图2是本发明一实施例提供的二维视频与三维场景的融合装置的模块图;
图3是本发明一实施例提供的二维视频与三维场景的融合设备的结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
图1是本发明一实施例提供的二维视频与三维场景的融合方法的流程图。参见图1,一种二维视频与三维场景的融合方法,包括:
步骤101:获取待融合场景的深度纹理信息和像素值。在进行视频场景融合之前,先渲染整个场景,在正常渲染场景的基础上渲染一张深度纹理,得到深度纹理信息。同时也可获取该场景中的像素点信息。
步骤102:根据深度纹理信息和像素点视口坐标得到世界坐标。
步骤103:根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;指定投影方式根据用户设置生成。其中指定投影方式包括:从地形上方向正下方投射,从建筑物前方向建筑物投射,和/或以某个实际存在的摄像头的位置和角度为参数投射。
步骤104:根据所述世界坐标计算待融合像素点对应待融合视频的纹理坐标;
步骤105:以纹理坐标和视口坐标为标准,结合像素值进行待融合视频和待融合场景的融合。
上述方法中通过深度纹理中的深度值和像素点视口坐标计算世界坐标,同时根据指定投影方式结合投影矩阵计算出场景对应于视频的纹理坐标,然后利用世界坐标及纹理坐标对场景和视频进行融合,此种方式可将视频与场景进行无缝融合,视频内部不会出现变形现象,极大地提高了融合质量。
更详细地,步骤102即根据深度纹理信息和像素点视口坐标得到世界坐标具体包括:根据深度纹理信息计算待融合场景的像素点的深度值;根据深度值和像素点视口坐标计算待融合场景中的像素点对应的投影坐标;根据深度值和投影坐标得到世界坐标。由于阴影体的面并不贴合在场景上而是包络场景,因此它的深度信息并不能代表场景中当前像素点的深度信息。故采用深度纹理中的深度值和像素的投影坐标反算出像素点所在场景中的局部坐标,然后再根据视频投影参数将局部坐标转换成世界坐标,此处的视频参数包括拍摄该视频的摄像头视角、摄像头位置及拍摄角度等。对局部坐标进行转换的目的是保证进行融合时的场景像素点与视频的像素点在同一坐标系下。此处利用深度纹理进行三维场景的坐标运算,实现视频与场景的无缝融合,使得视频没有任何扭曲、变形等现象。
更详细地,步骤103即根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点。具体包括:利用指定投影方式构造阴影体;通过阴影体过滤待融合场景内的像素点,利用阴影体算法得到在阴影体内部的像素点,作为待融合像素点。在进行视频与场景的融合时,并不是将场景中的所有像素点都进行融合,而是将阴影体范围内的像素点进行融合。而本实施例中构造阴影体的投影方式并不是传统的沿灯光照射方向选择性拉伸,而是通过人为设定投影方式。例如:从地形上方向正下方投射,从建筑物前方向建筑物投射,以某个实际存在的摄像头的位置和角度为参数投射等等。通过依赖人为设定的投影方式构造的阴影体进行像素点的过滤,利用阴影体算法实现视频向地形上投影,解决了贴地形视频的视频与地形缝隙问题和花屏问题。
更详细地,步骤104,根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标的具体过程为:根据预设的视频参数确定世界坐标到视频纹理坐标的变换矩阵;根据世界坐标到视频纹理坐标的变换矩阵将所述待融合像素点的世界坐标转换为对应所述待融合视频确定所述纹理坐标。通过世界坐标结合视频的相关参数去得到待融合像素点的视频坐标,将场景坐标和视频坐标进行统一化处理,确保二者是处于同一坐标系下。同时由于世界坐标是根据视口坐标得到的,此处的视口坐标是相对于屏幕所说的坐标,所以世界坐标所处的坐标系即为屏幕的坐标系,以此类推,视频对应的纹理坐标也是相对于屏幕所在的坐标系来说的。因此本申请中坐标转换,最终目的是将场景和视频的坐标都统一到屏幕的坐标系上。需要注意的是本申请中的视口坐标是像素的自带属性。
更详细地,步骤105即以视频纹理坐标和视口坐标为标准,结合像素值进行待融合视频和待融合场景的融合的具体实现过程为:以纹理坐标为标注获取待融合视频内对应的视频像素;将视频像素与世界坐标对应的待融合场景进行融合。通过计算对应于视频的纹理坐标,以此纹理坐标以依据在待融合视频内取对应位置处的像素点,然后将此位置处的像素点对应融合到待融合场景的对应位置处,以此实现了视频与场景的无缝融合。
采用上述融合方法可将视频依据用户选择的投影方式与场景进行融合,可将视频以任意投影角度与场景进行融合,同时由于采用深度纹理及视口坐标计算场景的世界坐标,在此基础上利用阴影体算法过滤场景内的像素点,然后进行视频与场景的融合,以此实现了视频以任意角度与场景进行无缝融合的效果,极大地提高了二者融合的真实感,提高了用户体验。
对应于本发明实施例提供的一种二维视频与三维场景的融合方法,本发明实施例还提供一种二维视频与三维场景的融合装置。请参见下文实施例。
图2是本发明一实施例提供的二维视频与三维场景的融合装置的模块图。参见图2,一种二维视频与三维场景的融合装置,包括:
信息获取模块201,用于获取待融合场景的深度纹理信息和像素值。
世界坐标获取模块202,用于根据深度纹理信息和像素视口坐标得到世界坐标。
融合像素点获取模块203,用于根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;指定投影方式根据用户设置生成。
纹理坐标计算模块204,用于根据世界坐标计算待融合像素点对应待融合视频的纹理坐标。
视频场景融合模块205,用于以纹理坐标和视口坐标为标准,结合像素值进行待融合视频和待融合场景的融合。
其中,世界坐标获取模块202包括:深度值计算单元,用于根据所述深度纹理信息计算所述待融合场景的像素点的深度值;投影坐标计算模块,用于根据所述深度值和像素点视口坐标计算所述待融合场景中的像素点对应的投影坐标;世界坐标计算单元,用于根据所述投影坐标和投影矩阵得到所述世界坐标。
融合像素点获取模块203具体用于:利用指定投影方式构造阴影体;通过所述阴影体过滤所述待融合场景内的像素点,利用所述阴影体算法得到与处于所述阴影体内的像素点,作为所述待融合像素点。
视频场景融合模块205具体用于:以纹理坐标为标注获取待融合视频内对应的视频像素;将视频像素与世界坐标对应的待融合场景进行融合。
采用上述融合装置实现二维视频与三维场景的无缝融合,使得视频没有任何扭曲、变形等现象。借助阴影体技术实现视频向地形上投影,解决了贴地形视频的视频与地形缝隙问题和花屏问题。
为了更清楚地介绍实现本发明实施例的硬件系统,对应于本发明实施例提供的一种二维视频与三维场景的融合方法,本发明实施例还提供一种二维视频与三维场景的融合设备。请参见下文实施例。
图3是本发明一实施例提供的二维视频与三维场景的融合设备的结构图。参见图3,一种二维视频与三维场景的融合设备,包括:
处理器301,以及与所述处理器301相连接的存储器302;
所述存储器302用于存储计算机程序,所述计算机程序至少用于执行上述所述的二维视频与三维场景的融合方法;
所述处理器301用于调用并执行所述存储器302中的所述计算机程序。
同时,本申请中还公开了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如上述所述的二维视频与三维场景的融合方法中各个步骤。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种二维视频与三维场景的融合方法,其特征在于,包括:
获取待融合场景的深度纹理信息和像素值;
根据所述深度纹理信息和像素点视口坐标得到世界坐标;
根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;所述指定投影方式根据用户设置生成;
所述根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点,包括:
利用指定投影方式构造阴影体;
通过所述阴影体过滤所述待融合场景内的像素点,利用所述阴影体算法得到处于所述阴影体内的像素点,作为所述待融合像素点;
所述指定投影方式包括:从地形上方向正下方投射,从建筑物前方向建筑物投射,和/或以某个实际存在的摄像头的位置和角度为参数投射;
根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标;
以所述纹理坐标和所述视口坐标为标准,结合所述像素值进行所述待融合视频和所述待融合场景的融合。
2.根据权利要求1所述的方法,其特征在于,所述根据所述深度纹理信息和像素点视口坐标得到世界坐标,包括:
根据所述深度纹理信息计算所述待融合场景的像素点的深度值;
根据所述深度值和所述像素点视口坐标计算所述待融合场景中的像素点对应的投影坐标;
根据所述投影坐标得到像素点的所述世界坐标。
3.根据权利要求2所述的方法,其特征在于,所述根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标,包括:
根据预设的视频参数确定世界坐标到视频纹理坐标的变换矩阵;
根据所述变换矩阵将所述待融合像素点的坐标转换为对应所述待融合视频,进而确定所述纹理坐标。
4.根据权利要求1所述的方法,其特征在于,所述以所述纹理坐标和所述视口坐标为标准,结合所述像素值进行所述待融合视频和所述待融合场景的融合,包括:
以所述纹理坐标为标注获取所述待融合视频内对应的视频像素;
将所述视频像素与所述视口坐标对应的所述待融合场景进行融合。
5.一种二维视频与三维场景的融合装置,其特征在于,包括:
信息获取模块,用于获取待融合场景的深度纹理信息和像素值;
世界坐标获取模块,用于根据所述深度纹理信息和像素点视口坐标得到世界坐标;
融合像素点获取模块,用于根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点;所述指定投影方式根据用户设置生成;
所述根据待融合视频的指定投影方式利用阴影体算法得到待融合像素点,包括:
利用指定投影方式构造阴影体;
通过所述阴影体过滤所述待融合场景内的像素点,利用所述阴影体算法得到处于所述阴影体内的像素点,作为所述待融合像素点;
所述指定投影方式包括:从地形上方向正下方投射,从建筑物前方向建筑物投射,和/或以某个实际存在的摄像头的位置和角度为参数投射;
纹理坐标计算模块,用于根据所述世界坐标计算所述待融合像素点对应所述待融合视频的纹理坐标;
视频场景融合模块,用于以所述纹理坐标和所述视口坐标为标准,结合所述像素值进行所述待融合视频和所述待融合场景的融合。
6.根据权利要求5所述的装置,其特征在于,所述世界坐标获取模块,包括:
深度值计算单元,用于根据所述深度纹理信息计算所述待融合场景的像素点的深度值;
投影坐标计算模块,用于根据所述深度值和所述像素点视口坐标计算所述待融合场景中的像素点对应的投影坐标;
世界坐标计算单元,用于根据所述投影坐标得到像素点的所述世界坐标。
7.一种二维视频与三维场景的融合设备,其特征在于,包括:
处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序,所述计算机程序至少用于执行权利要求1-4任一项所述的二维视频与三维场景的融合方法;
所述处理器用于调用并执行所述存储器中的所述计算机程序。
8.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如权利要求1-4任一项所述的二维视频与三维场景的融合方法中各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011103846.XA CN112184922B (zh) | 2020-10-15 | 2020-10-15 | 二维视频与三维场景的融合方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011103846.XA CN112184922B (zh) | 2020-10-15 | 2020-10-15 | 二维视频与三维场景的融合方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112184922A CN112184922A (zh) | 2021-01-05 |
CN112184922B true CN112184922B (zh) | 2024-01-26 |
Family
ID=73949779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011103846.XA Active CN112184922B (zh) | 2020-10-15 | 2020-10-15 | 二维视频与三维场景的融合方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112184922B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129420B (zh) * | 2021-04-14 | 2023-06-23 | 江苏理工学院 | 一种基于深度缓冲加速的光线追踪渲染方法 |
CN113870163B (zh) * | 2021-09-24 | 2022-11-29 | 埃洛克航空科技(北京)有限公司 | 基于三维场景的视频融合方法以及装置、存储介质、电子装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400409A (zh) * | 2013-08-27 | 2013-11-20 | 华中师范大学 | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 |
CN104318605A (zh) * | 2014-10-23 | 2015-01-28 | 南京大学 | 矢量实线与三维地形的并行贴合渲染方法 |
CN109448099A (zh) * | 2018-09-21 | 2019-03-08 | 腾讯科技(深圳)有限公司 | 画面的渲染方法、装置、存储介质及电子装置 |
CN110111408A (zh) * | 2019-05-16 | 2019-08-09 | 洛阳众智软件科技股份有限公司 | 基于图形学的大场景快速求交方法 |
CN110418127A (zh) * | 2019-07-29 | 2019-11-05 | 南京师范大学 | 一种Web环境下基于像素模板的虚实融合装置及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6903741B2 (en) * | 2001-12-13 | 2005-06-07 | Crytek Gmbh | Method, computer program product and system for rendering soft shadows in a frame representing a 3D-scene |
-
2020
- 2020-10-15 CN CN202011103846.XA patent/CN112184922B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400409A (zh) * | 2013-08-27 | 2013-11-20 | 华中师范大学 | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 |
CN104318605A (zh) * | 2014-10-23 | 2015-01-28 | 南京大学 | 矢量实线与三维地形的并行贴合渲染方法 |
CN109448099A (zh) * | 2018-09-21 | 2019-03-08 | 腾讯科技(深圳)有限公司 | 画面的渲染方法、装置、存储介质及电子装置 |
CN110111408A (zh) * | 2019-05-16 | 2019-08-09 | 洛阳众智软件科技股份有限公司 | 基于图形学的大场景快速求交方法 |
CN110418127A (zh) * | 2019-07-29 | 2019-11-05 | 南京师范大学 | 一种Web环境下基于像素模板的虚实融合装置及方法 |
Non-Patent Citations (1)
Title |
---|
视频图像在三维模型中的渲染;赵凯 等;《计算机工程与设计》;第30卷(第22期);5221-2224 * |
Also Published As
Publication number | Publication date |
---|---|
CN112184922A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111050210B (zh) | 执行操作的方法、视频处理系统及非瞬态计算机可读介质 | |
CN105164728B (zh) | 用于混合实境的设备和方法 | |
CN110650368B (zh) | 视频处理方法、装置和电子设备 | |
US11663733B2 (en) | Depth determination for images captured with a moving camera and representing moving features | |
US11050994B2 (en) | Virtual reality parallax correction | |
KR102346437B1 (ko) | 증강 현실 장면을 재생할 때 자동 줌을 위한 방법들, 디바이스들, 및 시스템들 | |
JP5847924B2 (ja) | 拡張現実表現のための二次元画像取込み | |
US20180357245A1 (en) | Animated Seek Preview for Panoramic Videos | |
US20190019299A1 (en) | Adaptive stitching of frames in the process of creating a panoramic frame | |
US20170038942A1 (en) | Playback initialization tool for panoramic videos | |
US11284057B2 (en) | Image processing apparatus, image processing method and storage medium | |
CN105069827B (zh) | 一种采用三维模型处理视频转场的方法 | |
CN112184922B (zh) | 二维视频与三维场景的融合方法、装置、设备及存储介质 | |
CN110072087B (zh) | 基于3d地图的摄像机联动方法、装置、设备及存储介质 | |
CN107111880A (zh) | 针对计算机视觉的遮挡处置 | |
CN111145135B (zh) | 一种图像去扰处理方法、装置、设备及存储介质 | |
CN112258610B (zh) | 图像标注方法、装置、存储介质及电子设备 | |
CN102572391B (zh) | 一种摄像头视频帧的精灵化方法和装置 | |
CN108765582B (zh) | 一种全景图片显示方法及设备 | |
CN113163135B (zh) | 视频的动画添加方法、装置、设备及介质 | |
CN114596383A (zh) | 线条特效处理方法、装置、电子设备、存储介质及产品 | |
US11823357B2 (en) | Corrective lighting for video inpainting | |
CN111731190B (zh) | 车载avm的显示方法、系统、电子设备及存储介质 | |
CN108510433B (zh) | 空间展示方法、装置及终端 | |
CN110958444A (zh) | 一种720度视场环境态势感知方法及态势感知系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Floor 13, 14 and 15, building 3, lianfei building, No.1, Fenghua Road, high tech Development Zone, Luoyang City, Henan Province, 471000 Patentee after: Zhongzhi Software Co.,Ltd. Country or region after: China Address before: Floor 13, 14 and 15, building 3, lianfei building, No.1, Fenghua Road, high tech Development Zone, Luoyang City, Henan Province, 471000 Patentee before: Luoyang Zhongzhi Software Technology Co.,Ltd. Country or region before: China |
|
CP03 | Change of name, title or address |