CN111369660B - 一种三维模型的无接缝纹理映射方法 - Google Patents
一种三维模型的无接缝纹理映射方法 Download PDFInfo
- Publication number
- CN111369660B CN111369660B CN202010136977.1A CN202010136977A CN111369660B CN 111369660 B CN111369660 B CN 111369660B CN 202010136977 A CN202010136977 A CN 202010136977A CN 111369660 B CN111369660 B CN 111369660B
- Authority
- CN
- China
- Prior art keywords
- dimensional model
- texture
- candidate
- patch
- texture mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
Abstract
本发明公开了一种三维模型的无接缝纹理映射方法,包括输入已知的三维模型、RGBD图像、投影矩阵以及投影矩阵误差;筛选出完全覆盖三维模型且位姿估计误差总和最小的RGB图像;计算三维模型中每一面片与筛选出的RGB图像的位姿关系,确定各面片对应的候选视点;剔除所有候选视点中纹理错误的候选视点;在剔除后剩余的候选视点中选取最优的视点进行纹理映射;调整纹理映射后的三维模型的颜色和亮度;若最优的视点中存在遮挡,则取历史纹理映射至接缝融合处理后的三维模型的遮挡区域,得到完整的纹理映射三维模型。本发明有效降低相邻纹理的亮度颜色差异,抑制接缝融合导致的纹理失真,提升了三维模型整体纹理的准确度和一致性。
Description
技术领域
本申请属于计算机视觉技术领域,具体涉及一种三维模型的无接缝纹理映射方法。
背景技术
三维模型的纹理映射是将带有颜色信息的纹理图像映射到空间三维模型表面上,赋予三维模型表面纹理特征。在三维重建过程中通过网格构建得到的三维模型不具有纹理特征,为了使三维模型具有更好的视觉效果,通常最终需要对三维模型进行纹理映射,而如何通过一组图像,来获得物体上更真实无接缝的纹理,是三维建模的重要一步,影响着模型表面的细节与三维模型的真实感。
现有的纹理映射方案包括:获取三维模型对应的多张纹理图像,该多张纹理图像中包含该三维模型对应的目标,比如车辆目标、人员目标等;从该多张纹理图像中,选择一张视点最近的图像,或者选择一张最清晰的图像;根据所选择纹理图像中像素点与三维模型中网格点的映射关系,将所选择纹理图像中该目标的纹理特征映射到三维模型中。
如申请公布号为CN105957137A的专利文献,提出了一种基于纹理映射的三维彩色模型图像处理方法,将各纹理块的边界和内部分开更新,可降低接缝处颜色的差异提升整体纹理的一致性。但该专利弱化接缝处颜色更新的约束,对纹理错位导致接缝颜色失真的情况无法处理,存在扩大纹理错位的风险。
如申请公布号为CN108335352A的专利文献,提出了一种面向多视图大规模三维重建场景的纹理映射方法,对输入的多视图不做筛选,若输入视点数量增多则会导致纹理块细碎,纹理接缝增加,该方法对纹理接缝也采用融合处理,无法避免融合导致的纹理模糊。
因此实际的纹理映射中,纹理图像质量与所需要的位姿精度制约着纹理映射的质量,主要存在如下两个问题:
1、如果所选择纹理图像中的目标被遮挡,则无法将该遮挡区域的纹理特征映射到三维模型上,若不进行筛选,过多视点的纹理图像会导致纹理块细碎,映射效果较差。
2、相邻纹理映射图像因曝光差异,颜色差异,精度问题,将引起纹理接缝处的纹理出现错位、模糊等问题,映射的接缝处纹理效果差。
如何解决目标遮挡、相邻纹理亮度颜色差异、纹理接缝融合失真等问题,获得更细致真实的三维模型对于三维重建具有重要的意义。
发明内容
本申请的目的在于提供一种三维模型的无接缝纹理映射方法,有效降低相邻纹理的亮度颜色差异,抑制接缝融合导致的纹理失真,提升了三维模型整体纹理的准确度和一致性。
为实现上述目的,本申请所采取的技术方案为:
一种三维模型的无接缝纹理映射方法,所述三维模型的无接缝纹理映射方法,包括:
步骤1、输入已知的三维模型、RGBD图像、三维模型到RGBD图像的投影矩阵以及投影矩阵误差;
步骤2、根据所述投影矩阵进行位姿变换和误差分析,筛选出完全覆盖三维模型且位姿估计误差总和最小的RGB图像;
步骤3、计算三维模型中每一面片与筛选出的RGB图像的位姿关系,确定各面片对应的候选视点;
步骤4、利用面片以及对应的候选视点,剔除所有候选视点中纹理错误的候选视点;
步骤5、在剔除后剩余的候选视点中选取最优的视点进行纹理映射;
步骤6、调整纹理映射后的三维模型的颜色和亮度,进行接缝融合处理;
步骤7、若步骤5的最优的视点中存在遮挡,则取历史纹理映射至步骤6接缝融合处理后的三维模型的遮挡区域,得到完整的纹理映射三维模型。
作为优选,所述计算三维模型中每一面片与筛选出的RGB图像的位姿关系,确定各面片对应的候选视点,包括:
步骤3.1、根据三维模型获取各面片的法向量;
步骤3.2、根据所述投影矩阵计算各RGB图像的法向量;
步骤3.3、逐一计算面片的法向量与RGB图像的法向量之间的夹角,取夹角小于角度阈值的RGB图像作为对应面片的候选视点。
作为优选,所述利用面片以及对应的候选视点,剔除所有候选视点中纹理错误的候选视点,包括:
步骤4.1、依次取三维模型中的面片以及对应的候选视点,根据投影矩阵将面片顶点的三维坐标投影至对应的RGB图像上,得到面片顶点的二维坐标;
步骤4.2、利用该RGB图像对应的RGBD图像的像素深度信息,将所述二维坐标反投影至三维空间中,得到参考面片的各顶点三维坐标;
步骤4.3、计算所取面片与所述参考面片之间的最短距离;
步骤4.4、若最短距离小于距离阈值,则该候选视点的纹理正确并保留该候选视点;否则该候选视点的纹理错误并剔除该候选视点。
作为优选,所述调整纹理映射后的三维模型的颜色和亮度,进行接缝融合处理,包括:
进行颜色调整:
a)全局颜色调整:采用代价方程进行全局颜色调整;
b)局部颜色调整:判断接缝两侧颜色差异大小,若颜色差异大于第一阈值,则放弃局部颜色调整;否则采用泊松编辑对接缝两侧区域的颜色纹理进行融合;
进行亮度调整:
a)全局亮度调整:采用代价方程进行全局亮度调整;
b)局部亮度调整:判断接缝两侧亮度差异大小,若亮度差异大于第二阈值,则放弃局部亮度调整;否则采用泊松编辑对接缝两侧区域亮度进行融合。
本申请提供的三维模型的无接缝纹理映射方法,借助输入相机位姿与位姿估计准确度,选取较少且位姿估计较准的视点组合作为纹理映射的输入,减少接缝数量与纹理错位程度;采用视点选取优化模型,为面片选择最优视点,控制接缝在弱纹理区域,降低接缝显著度;提出纹理调整策略,将纹理亮度与颜色区别处理,抑制接缝融合导致的纹理失真。从而提升模型整体纹理的准确度与一致性。
附图说明
图1为本申请的三维模型的无接缝纹理映射方法的流程图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本申请。
其中一个实施例中,提供一种三维模型的无接缝纹理映射方法,如图1所示,本实施例的三维模型的无接缝纹理映射方法,包括:
步骤1、输入已知的三维模型、RGBD图像、三维模型到RGBD图像的投影矩阵以及投影矩阵误差。
输入的三维模型为待映射纹理的三维模型,且RGBD图像为不同视角、视点对齐无畸变的多张,各RGBD图像包括RGB图像和深度图像,投影矩阵误差包括RGBD图像中每一视点的标定误差与校验误差。
步骤2、根据所述投影矩阵进行位姿变换和误差分析,筛选出完全覆盖三维模型且位姿估计误差总和最小的RGB图像。
在纹理映射前,根据投影矩阵进行位姿变换、根据投影矩阵误差进行误差分析对RGB图像进行筛选,可有效降低三维模型的接缝数量与纹理错位程度。且为了保证筛选操作的灵活性,筛选过程采用现有技术实现,可以采用的筛选步骤包括但不限于以下:例如先采用穷举筛选,得到满足覆盖整个三维模型的RGB图像组,然后选取位姿估计误差(即投影矩阵误差中的标定误差与校验误差)总和最小的,得到最终的RGB图像组作为候选视点。
步骤3、计算三维模型中每一面片与筛选出的RGB图像(即上述RGB图像组中的各RGB图像)的位姿关系,确定各面片对应的候选视点。
由于对应的面片与图像之间存在一定的规律,因此在确定面片对应的候选视点时,通常根据两者的位姿关系,例如角度、距离等参数进行确定。在一实施例中,提供的确定方法如下:
步骤3.1、根据三维模型获取各面片的法向量,在输入三维模型时,三维物体上的面片信息是已知的。
步骤3.2、根据所述投影矩阵计算各RGB图像的法向量。
步骤3.3、逐一计算面片的法向量与RGB图像的法向量之间的夹角,取夹角小于角度阈值的RGB图像作为对应面片的候选视点。
步骤4、利用面片以及对应的候选视点,剔除所有候选视点中纹理错误的候选视点。
误差视点剔除利用与纹理图像对齐的深度图像剔除候选视点中映射错误纹理的视点,计算面片顶点在对应视点的二维坐标,获取相应深度,反投影到三维模型空间,生成参考面片,计算模型面片与参考面片间距,根据间距大小判断纹理正确性。具体剔除步骤如下:
步骤4.1、依次取三维模型中的面片以及对应的候选视点,根据投影矩阵将面片顶点的三维坐标投影至对应的RGB图像上,得到面片顶点的二维坐标。RGB图像就是纹理图像,即该视点下的视点图像。
步骤4.2、利用该RGB图像对应的RGBD图像的像素深度信息,将所述二维坐标反投影至三维空间中,得到参考面片的各顶点三维坐标。反投影为常规手段,与投影矩阵相乘可以做投影,反之可以做反投影,本实施例中在生成参考面片时做反投影,并替换深度信息即可。
步骤4.3、计算所取面片与所述参考面片之间的最短距离。
步骤4.4、若最短距离小于距离阈值,则该候选视点的纹理正确并保留该候选视点;否则该候选视点的纹理错误并剔除该候选视点。
步骤5、在剔除后剩余的候选视点中选取最优的视点进行纹理映射。
在选取最优视点时,为控制接缝在弱纹理区域,降低接缝显著度,可以采用的优化步骤包括但不限于,采用基于马尔科夫随机场建立的优化模型作为视点选取优化模型计算面片在各剩余候选视点中的能量值,根据能量值从剩余候选视点中选取用于纹理映射的最优视点。
步骤6、调整纹理映射后的三维模型的颜色和亮度,进行接缝融合处理。
颜色调整融合相邻面片颜色并控制同一片面的颜色统一,使三维模型整体纹理一致性提升。然而,纹理映射误差也会经由颜色调整扩散,导致三维模型颜色失真。因此,在颜色调整前,需限制调整前后的颜色差异。首先将表示颜色的分量从RGB空间通过转换公式变换到YUV空间。由于人类对邻近区域的亮度差异比较敏感,且接缝两侧颜色趋近较亮度趋近更容易导致纹理失真,因此亮度调整的限制条件较颜色调整的限制条件放宽。
由于现有技术中纹理融合经常导致失真,因此本实施例将颜色与亮度分别进行调整,且设置不同的限制条件,以达到更优的融合效果。在一实施例中,提供的接缝融合处理如下:
进行颜色调整:
a)全局颜色调整:采用代价方程进行全局颜色调整;
b)局部颜色调整:判断接缝两侧颜色差异大小,若颜色差异大于第一阈值,则放弃局部颜色调整;否则采用泊松编辑(Poisson Editing)对接缝两侧区域的颜色纹理进行融合;
进行亮度调整:
a)全局亮度调整:采用代价方程进行全局亮度调整;
b)局部亮度调整:判断接缝两侧亮度差异大小,若亮度差异大于第二阈值,则放弃局部亮度调整;否则采用泊松编辑对接缝两侧区域亮度进行融合。
本实施例在接缝两侧颜色差异较大(不属于同一色系)时,放弃纹理融合,抑制融合失真,并且设置第二阈值大于第一阈值,实现亮度调整的限制条件较颜色调整的限制条件放宽。
需要说明的是,本实施例建议全局与局部、颜色与亮度调整相结合的方法,但不局限于此,可根据实际调整所需采用其他结合方法,例如全局、颜色与亮度调整相结合的方法。
步骤7、若步骤5的最优的视点中存在遮挡,则取历史纹理映射至步骤6接缝融合处理的三维模型的遮挡区域,得到完整的纹理映射三维模型。
由于视点存在遮挡会导致三维模型在纹理映射后存在缺失,为了得到更加完整的映射模型,本实施例中提取历史纹理映射至遮挡区域,提升模型纹理的完整度。其中历史纹理映射应理解为该视角下无遮挡的纹理图像。
本申请的三维模型的无接缝纹理映射方法借助输入相机位姿与位姿估计准确度,筛选出较少且位姿估计较准的视点组合作为纹理映射的输入,减少视点可以降低纹理接缝数量;采用视点选取优化模型,为面片选择最优视点,使纹理稠密区的面片倾向选取同一视点图像的纹理,控制接缝发生在弱纹理区域,降低不同视点纹理接缝的显著度;提出纹理调整策略,在YUV颜色空间中,将纹理亮度与颜色两种属性区别处理,抑制接缝两侧纹理融合导致的模型颜色失真;有效减少纹理接缝数量,提升当前帧模型纹理的完整度,针对复杂三维模型可获取较为准确完整的纹理映射结果,增强其主观视效。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (3)
1.一种三维模型的无接缝纹理映射方法,其特征在于,所述三维模型的无接缝纹理映射方法,包括:
步骤1、输入已知的三维模型、RGBD图像、三维模型到RGBD图像的投影矩阵以及投影矩阵误差;
步骤2、根据所述投影矩阵进行位姿变换和误差分析,筛选出完全覆盖三维模型且位姿估计误差总和最小的RGB图像;
步骤3、计算三维模型中每一面片与筛选出的RGB图像的位姿关系,确定各面片对应的候选视点;
步骤4、利用面片以及对应的候选视点,剔除所有候选视点中纹理错误的候选视点;
步骤5、在剔除后剩余的候选视点中选取最优的视点进行纹理映射;
步骤6、调整纹理映射后的三维模型的颜色和亮度,进行接缝融合处理,包括:
进行颜色调整:
a)全局颜色调整:采用代价方程进行全局颜色调整;
b)局部颜色调整:判断接缝两侧颜色差异大小,若颜色差异大于第一阈值,则放弃局部颜色调整;否则采用泊松编辑对接缝两侧区域的颜色纹理进行融合;
进行亮度调整:
a)全局亮度调整:采用代价方程进行全局亮度调整;
b)局部亮度调整:判断接缝两侧亮度差异大小,若亮度差异大于第二阈值,则放弃局部亮度调整;否则采用泊松编辑对接缝两侧区域亮度进行融合,所述第二阈值大于第一阈值;
步骤7、若步骤5的最优的视点中存在遮挡,则取历史纹理映射至步骤6接缝融合处理后的三维模型的遮挡区域,得到完整的纹理映射三维模型。
2.如权利要求1所述的三维模型的无接缝纹理映射方法,其特征在于,所述计算三维模型中每一面片与筛选出的RGB图像的位姿关系,确定各面片对应的候选视点,包括:
步骤3.1、根据三维模型获取各面片的法向量;
步骤3.2、根据所述投影矩阵计算各RGB图像的法向量;
步骤3.3、逐一计算面片的法向量与RGB图像的法向量之间的夹角,取夹角小于角度阈值的RGB图像作为对应面片的候选视点。
3.如权利要求1所述的三维模型的无接缝纹理映射方法,其特征在于,所述利用面片以及对应的候选视点,剔除所有候选视点中纹理错误的候选视点,包括:
步骤4.1、依次取三维模型中的面片以及对应的候选视点,根据投影矩阵将面片顶点的三维坐标投影至对应的RGB图像上,得到面片顶点的二维坐标;
步骤4.2、利用该RGB图像对应的RGBD图像的像素深度信息,将所述二维坐标反投影至三维空间中,得到参考面片的各顶点三维坐标;
步骤4.3、计算所取面片与所述参考面片之间的最短距离;
步骤4.4、若最短距离小于距离阈值,则该候选视点的纹理正确并保留该候选视点;否则该候选视点的纹理错误并剔除该候选视点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136977.1A CN111369660B (zh) | 2020-03-02 | 2020-03-02 | 一种三维模型的无接缝纹理映射方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136977.1A CN111369660B (zh) | 2020-03-02 | 2020-03-02 | 一种三维模型的无接缝纹理映射方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111369660A CN111369660A (zh) | 2020-07-03 |
CN111369660B true CN111369660B (zh) | 2023-10-13 |
Family
ID=71206447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010136977.1A Active CN111369660B (zh) | 2020-03-02 | 2020-03-02 | 一种三维模型的无接缝纹理映射方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111369660B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258617B (zh) * | 2020-12-07 | 2021-03-16 | 南京爱奇艺智能科技有限公司 | 一种物体边缘修正优化的相机新视点图像生成方法和系统 |
CN113487729A (zh) * | 2021-07-30 | 2021-10-08 | 上海联泰科技股份有限公司 | 三维模型的表面数据处理方法、系统及存储介质 |
CN114708375B (zh) * | 2022-06-06 | 2022-08-26 | 江西博微新技术有限公司 | 纹理映射方法、系统、计算机及可读存储介质 |
CN114972612B (zh) * | 2022-07-18 | 2022-11-11 | 深圳大学 | 一种基于三维简化模型的图像纹理生成方法及相关设备 |
CN116402975B (zh) * | 2023-01-13 | 2024-03-26 | 北京航空航天大学云南创新研究院 | Web平台环境下三维模型加载和渲染方法及其装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001067749A2 (en) * | 2000-03-07 | 2001-09-13 | Sarnoff Corporation | Camera pose estimation |
CN104574501A (zh) * | 2014-12-19 | 2015-04-29 | 浙江大学 | 一种针对复杂三维场景的高质量纹理映射方法 |
CN105608693A (zh) * | 2015-12-18 | 2016-05-25 | 上海欧菲智能车联科技有限公司 | 车载全景环视的标定系统及方法 |
CN106204710A (zh) * | 2016-07-13 | 2016-12-07 | 四川大学 | 基于图像二维信息熵的纹理块映射到三维网格模型的方法 |
CN106485642A (zh) * | 2016-09-30 | 2017-03-08 | 北京交通大学 | 在三维网格模型中嵌入可见水印的方法 |
CN108648270A (zh) * | 2018-05-12 | 2018-10-12 | 西北工业大学 | 基于eg-slam的无人机实时三维场景重建方法 |
CN108648240A (zh) * | 2018-05-11 | 2018-10-12 | 东南大学 | 基于点云特征地图配准的无重叠视场相机姿态标定方法 |
WO2018201551A1 (zh) * | 2017-05-02 | 2018-11-08 | 厦门美图之家科技有限公司 | 一种人脸图像的融合方法、装置及计算设备 |
CN109767484A (zh) * | 2018-12-06 | 2019-05-17 | 武汉天际航信息科技股份有限公司 | 一种三维贴图中具有色彩一致性的匀光匀色方法及系统 |
CN110223383A (zh) * | 2019-06-17 | 2019-09-10 | 重庆大学 | 一种基于深度图修补的植物三维重建方法及系统 |
CN110473294A (zh) * | 2018-05-11 | 2019-11-19 | 杭州海康威视数字技术股份有限公司 | 一种基于三维模型的纹理映射方法、装置及设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW583600B (en) * | 2002-12-31 | 2004-04-11 | Ind Tech Res Inst | Method of seamless processing for merging 3D color images |
US20090110267A1 (en) * | 2007-09-21 | 2009-04-30 | The Regents Of The University Of California | Automated texture mapping system for 3D models |
EP2983131A1 (en) * | 2014-08-06 | 2016-02-10 | Thomson Licensing | Method and device for camera calibration |
-
2020
- 2020-03-02 CN CN202010136977.1A patent/CN111369660B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001067749A2 (en) * | 2000-03-07 | 2001-09-13 | Sarnoff Corporation | Camera pose estimation |
CN104574501A (zh) * | 2014-12-19 | 2015-04-29 | 浙江大学 | 一种针对复杂三维场景的高质量纹理映射方法 |
CN105608693A (zh) * | 2015-12-18 | 2016-05-25 | 上海欧菲智能车联科技有限公司 | 车载全景环视的标定系统及方法 |
CN106204710A (zh) * | 2016-07-13 | 2016-12-07 | 四川大学 | 基于图像二维信息熵的纹理块映射到三维网格模型的方法 |
CN106485642A (zh) * | 2016-09-30 | 2017-03-08 | 北京交通大学 | 在三维网格模型中嵌入可见水印的方法 |
WO2018201551A1 (zh) * | 2017-05-02 | 2018-11-08 | 厦门美图之家科技有限公司 | 一种人脸图像的融合方法、装置及计算设备 |
CN108648240A (zh) * | 2018-05-11 | 2018-10-12 | 东南大学 | 基于点云特征地图配准的无重叠视场相机姿态标定方法 |
CN110473294A (zh) * | 2018-05-11 | 2019-11-19 | 杭州海康威视数字技术股份有限公司 | 一种基于三维模型的纹理映射方法、装置及设备 |
CN108648270A (zh) * | 2018-05-12 | 2018-10-12 | 西北工业大学 | 基于eg-slam的无人机实时三维场景重建方法 |
CN109767484A (zh) * | 2018-12-06 | 2019-05-17 | 武汉天际航信息科技股份有限公司 | 一种三维贴图中具有色彩一致性的匀光匀色方法及系统 |
CN110223383A (zh) * | 2019-06-17 | 2019-09-10 | 重庆大学 | 一种基于深度图修补的植物三维重建方法及系统 |
Non-Patent Citations (5)
Title |
---|
AMvs based automatic 3D model reconstruction system from turntable image sequence;Wu XJ,Zhou ,D;2016 IEEE international conference on information and automation;全文 * |
image quality assessment through contour detection;shuo liu,xiang peng;2019 IEEE 28th international symposium on industrial electronic(ISIE);全文 * |
多投影显示墙的全局颜色校正;王修晖;华炜;鲍虎军;;计算机辅助设计与图形学学报(第01期);全文 * |
王化友,代波.CFD-SLAM:融合特征法与直接法的快速鲁棒SLAM系统.《高技术通讯》.2019,(第undefined期),第1224-1229页. * |
黄宏伟.城市地铁盾构隧道病害快速检测与工程实践.上海科学技术出版社,2019,第86页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111369660A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111369660B (zh) | 一种三维模型的无接缝纹理映射方法 | |
US10728513B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR101742120B1 (ko) | 영상 처리 장치 및 방법 | |
US7557812B2 (en) | Multilevel texture processing method for mapping multiple images onto 3D models | |
CA2727218C (en) | Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images | |
US20140009462A1 (en) | Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects | |
US7102637B2 (en) | Method of seamless processing for merging 3D color images | |
JP4889182B2 (ja) | ベイジアンフレームワークにおける仮説混合による深度マップの生成 | |
CN102113015A (zh) | 使用修补技术进行图像校正 | |
EP1303839A2 (en) | System and method for median fusion of depth maps | |
KR101031062B1 (ko) | 복합 현실 구현을 위한 영상 투사 방법 | |
CN107451976B (zh) | 一种图像处理方法及装置 | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
CN111369659A (zh) | 一种基于三维模型的纹理映射方法、装置及设备 | |
CN109194888B (zh) | 一种针对低质量深度图的dibr自由视点合成方法 | |
CN109859249B (zh) | Rgbd序列中基于自动分层的场景流估计方法 | |
TWI478095B (zh) | Check the depth of mismatch and compensation depth error of the perspective synthesis method | |
JP7374582B2 (ja) | 画像処理装置、画像生成方法およびプログラム | |
US11284052B2 (en) | Method for automatically restoring a calibrated state of a projection system | |
CN110473294B (zh) | 一种基于三维模型的纹理映射方法、装置及设备 | |
CN113450274B (zh) | 一种基于深度学习的自适应视点融合方法及系统 | |
CN112200852B (zh) | 一种时空混合调制的立体匹配方法及系统 | |
KR20150037203A (ko) | 3차원 입체 영상용 깊이지도 보정장치 및 보정방법 | |
CN111524075B (zh) | 深度图像滤波方法、图像合成方法、装置、设备及介质 | |
KR102324605B1 (ko) | 변이 영상 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |