CN101877143A - 一种二维图像组的三维场景重建方法 - Google Patents

一种二维图像组的三维场景重建方法 Download PDF

Info

Publication number
CN101877143A
CN101877143A CN2009102423404A CN200910242340A CN101877143A CN 101877143 A CN101877143 A CN 101877143A CN 2009102423404 A CN2009102423404 A CN 2009102423404A CN 200910242340 A CN200910242340 A CN 200910242340A CN 101877143 A CN101877143 A CN 101877143A
Authority
CN
China
Prior art keywords
point
dimensional
attention
image
unique point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2009102423404A
Other languages
English (en)
Other versions
CN101877143B (zh
Inventor
徐常胜
张奕
程健
卢汉清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN2009102423404A priority Critical patent/CN101877143B/zh
Publication of CN101877143A publication Critical patent/CN101877143A/zh
Application granted granted Critical
Publication of CN101877143B publication Critical patent/CN101877143B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种二维图像组的三维场景重建方法,该方法包括以下步骤:步骤S1:输入图像组中每幅图像计算各像素的视觉关注度评价;步骤S2:在输入图像组的各幅图像上提取尺度不变特征变换特征点,并且对图像组中两两图像上的特征点进行匹配和选择,获得的匹配特征点,匹配和选择的原则包括特征点对的特征空间相似度以及获得的特征点相对应的视觉关注度;步骤S3:利用获得的匹配特征点对对摄像机参数进行估计;步骤S4:用选取的匹配特征点对、相应特征点的关注度评价以及估计得到的摄像机参数求取优化的三维场景模型。

Description

一种二维图像组的三维场景重建方法
技术领域
本发明涉及一种从二维图像组到三维场景模型的三维重建方法。
背景技术
三维场景重建是计算机视觉领域的一项核心内容,在计算机动画、电子娱乐、虚拟显示等领域都有着广泛的应用价值。国内外研究机构和学者对此展开了广泛研究。
80年代美国麻省理工学院人工智能实验室的Marr提出了一种视觉计算理论并应用在双目匹配上,使两张有视差的平面图产生在深度的立体图形,奠定了双目立体视觉发展理论基础。早期的三维场景重建主要是以同一场景不同角度拍摄的多幅图像为基础恢复场景的三维信息。从二维图像到三维场景生成通常需要经过图像获取、预处理、模型恢复和模型渲染等步骤。其中核心的三维模型恢复环节又可由特征提取与匹配、结构运动恢复、立体匹配和三维模型计算四部分组成。
特征提取与匹配意在将同一时间不同视角视频帧中对应相同三维目标的点或线对进行匹配,是三维重建过程中最基础的一步,直接影响到后续步骤的效果。结构运动恢复的任务是标定摄像机参数,主要方法分为离线标定和在线自标定两大类。立体匹配是在恢复摄像机运动和投影结构之后,通过生成场景的深度图来建立场景的三维模型,这一过程通常分为校正和匹配两步完成。三维模型计算是在以上得到的各点匹配图的基础上,通过三角关系可以计算得到场景的深度图。当存在多视角的情况下,需要对同一场景获取到的多幅深度图进行有效的融合。在融合过程中引入空间连续性等先验知识对提高融合效果具有重要影响。
从二维图像到三维立体的三维重建过程不但是把点状图像信息变换成整体描述的一个聚集过程,还可以通过加入某些先验信息改善和提高信息的聚集。现有的三维重建利用的先验信息均为客观信息,尚缺乏利用人类主观感知改善局部三维重建效果的有效方法。
发明内容
本发明的目的是在二维图像序组到三维场景模型的重建问题中引入人类视觉感知机理,利用视觉关注度模型对特征进行选择与匹配、并将视觉关注度引入三维模型的计算,对现有三维重建关键技术进行改进和补充,为提高受关注局部区域重建的精度、使三维重建结果更加符合人类的视觉感知、本发明提供一种二维图像组的三维场景重建方法。
为了实现以上目的,本发明提供的二维图像组的三维场景重建方法包括以下步骤:
步骤S1:输入图像组中每幅图像计算各像素的关注度评价;
步骤S2:在输入图像组的各幅图像上提取尺度不变特征变换特征点,并且对图像组中两两图像上的特征点进行匹配和选择,获得的匹配特征点,匹配和选择的原则包括特征点对的特征空间相似度以及获得的特征点相对应的视觉关注度;
步骤S3:利用获得的匹配特征点对对摄像机参数进行估计;
步骤S4:用选取的匹配特征点对、相应特征点的关注度评价以及估计得到的摄像机参数求取优化的三维场景模型。
其中,各点视觉关注度的权值按以下方法确定:某像素的视觉关注度由该像素与周围邻域内像素的颜色对比度经归一化描述,此关注度描述对应于该点在特征点选择和匹配、三维表面模型优化过程中的关注度权值。
其中,在特征点匹配和选择过程中,将特征点的视觉关注度以加权形式引入特征点匹配度的衡量,在选择匹配点时,优先选择视觉关注度高的匹配点对用于后期重建。
其中,在三维场景模型优化过程中,在优化函数的特征点投影一致性项中引入特征点关注度加权,优先提高受关注度点附近重建模型的精度。
本发明的优点在于:本发明在二维图像序组到三维场景模型的重建问题中引入人类视觉感知机理,利用视觉关注度模型对特征进行选择与匹配、并将视觉关注度引入三维模型的计算,对现有三维重建关键技术进行改进和补充,提高受关注局部区域重建的精度,使三维重建结果更加符合人类的视觉感知,为虚拟现实等应用提供支持。根据人类视觉认知特性,为用于重建的图像中各点确定其视觉关注度评价。在二维图像上提取特征点,并在图像间进行特征点匹配,匹配中用特征点的视觉关注度对匹配度进行加权,优先选择视觉关注度高的特征点进行匹配。用匹配点对计算优化的三维模型。在优化目标中的各向投影一致性评价中引入视觉关注度加权,减小关注度高的区域的模型误差。考虑了人类关注度在三维重建质量评价中的作用,在重建中优先提高关注度高的区域的三维模型精度,相对传统三维重建方法,能够获得更好的感官认知效果。本发明方法可被运用于虚拟现实等实际应用中。
附图说明
图1本发明基于视觉关注度的三维重建基本流程
图2本发明感兴趣度加权的特征点
具体实施方式
下面结合附图详细说明本发明技术方案中所涉及的各个细节问题。应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
根据人类视觉认知特性,为用于重建的图像中各点确定其视觉关注度评价。在二维图像上提取特征点,并在图像间进行特征点匹配,匹配中用特征点的视觉关注度对匹配度进行加权,优先选择视觉关注度高的特征点进行匹配。用匹配点对计算优化的三维模型。在优化目标中的各向投影一致性评价中引入视觉关注度加权,减小关注度高的区域的模型误差。基本重建流程如图1所示。
将人类认知中的关注度引入了传统的三维重建,将两者进行有效整合,提高受关注度高的区域的三维重建效果;
视觉关注度和三维重建的结合主要通过特征点匹配和三维表面模型优化这两个三维重建的关键步骤体现;
视觉关注度以加权的形式参与特征点选择和匹配、三维表面模型优化的决策过程。
各点视觉关注度的权值按以下方法确定:某像素的视觉关注度由该像素与周围邻域内像素的颜色对比度经归一化描述,此关注度描述对应于该点在特征点选择和匹配、三维表面模型优化过程中的关注度权值。
在特征点匹配和选择过程中,将特征点的视觉关注度以加权形式引入特征点匹配度的衡量,在选择匹配点时,优先选择视觉关注度高的匹配点对用于后期重建。
在三维表面模型优化过程中,在优化函数的特征点投影一致性项中引入特征点关注度加权,从而优先提高受关注度点附近重建模型的精度。
1.关注度评价
1)定义M×N像素点的图像上某点pij的关注度评价为该点与周围邻域内点之间的颜色对比度Cij C ij = Σ q ∈ Θ d ( p ij , q ) , 其中q为pij的邻域Θ内的点,d为点pij和q颜色空间的高斯距离。
2)将图像上各点的对比度归一化到[0,255]区间作为该点的关注度评价η。
2.二维特征点匹配
在取得各点的视觉关注度之后,三维重建工作从寻找多视角采集的图像组中各图像上二维特征点的提取和匹配开始。本发明采用尺度不变特征变换(SIFT)特征作为二维图像特征点的特征描述,建立16组每组8维共128维的SIFT特征向量[1](Lowe,David G.,″Object recognition fromlocal scale-invariant features″.Proceedings of the International Conference onComputer Vision.pp.1150-1157.)作为特征点的描述子,参与匹配(如附图2所示)。令图像A和图像B中的SIFT特征集SA和SB分别为 S A = { S 1 A , S 2 A , . . . , S m A } S B = { S 1 B , S 2 B , . . . , S n B } , m,n分别为图像A和图像B提取的特征点数量,则特征点对(Si A,Sj B)间的相似距离dij定义为:
d ij = Σ k = 1 16 | | S i , k A - S j , k B | | 2 ,
其中角标k代表16组8维向量的组序号,相似距离dij为16组8维向量按组欧氏距离的加和,由dij组成距离度量矩阵DAB=[dij],并按如下步骤进行特征点匹配:
1)在DAB的基础上定义距离度量矩阵DAB=[dij],其中:
d ‾ ij = d ij d ij > thre d ∞ d ij ≤ thre d ,
2)将视觉关注度引入特征点匹配度的描述中,定义特征点匹配度矩阵MAB为:
MAB=[mij],其中 m ij = η i η j d ‾ ij ,
mij是图像A中第i个特征点和图像B中第j个特征点的匹配度,ηi是图像A中第i个特征点所对应的视觉关注度,ηj是图像B中第j个特征点所对应的视觉关注度,由步骤1的关注度评价方法得到。
3)将矩阵MAB=[mij]中元素从大到小排列,依次选择前p个元素组成匹配点对集合 MP = { ( mp i 1 , mp j 1 ) , ( mp i 2 , mp j 2 ) , . . . , ( mp i p , mp j p ) } , 其中当k≠l时,匹配点对间满足 mp i k ≠ mp i l , mp j k ≠ mp j l , 以保证所有匹配点对为一对一的唯一匹配,k,l是特征点的序数。
图2是上述特征点匹配方法应用在两幅图像匹配中的实例示意图。
3.摄像机参数获取
利用以上提取的匹配点对,各视角间的视角坐标转换矩阵可由下式用最小二乘法估计
x B y B 1 = h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 x A y A 1 ,
其中(xA,yA)和(xB,yB)是两个视角的匹配特征点对,x,y是二维图像空间坐标,h是视角转换参数。
像机参数和度量矩阵利用以上匹配点对通过文献[2](M.Pollefeys,R.Koch and L.Van Gool,“Self-Calibration and Metric Reconstruction in spite ofVarying and Unknown Internal Camera Parameters,”International Journal ofComputer Vision,32(1),7-25,1999.)中描述的摄像机自标定方法确定,主要过程如下:
1)在已知主点坐标和纵横比为1∶1的情况下利用线性模型算法粗略估计摄像机的焦距,并用非线性模型对焦距参数的估计值进行修正。
2)利用估计的摄像机参数求计算得到的二次曲面以及射影变换矩阵求取相应的度量变换矩阵T。
4.三维场景模型优化
本发明采用参数化表示三维场景模型,令三维表面X表示为X(u,v)≡(x(u,v),y(u,v),z(u,v)),三维重建的目标即为寻找一个最优的表面函数X,使其能够最小化以下代价函数p(X)=∫∫(c(X)+τs(X))dudv。代价函数由两项的积分表示,其中c(X)描述三维表面X在各视角上投影与所对应的二维图像的匹配度,定义为 c ( X ) = Σ i , j β j i | | T j Q - q j i | | , 其中Tj是三维表面模型到二维视角j的度量变换矩阵,由摄像机自标定获得,Q是三维表面上的特征点的三维空间坐标,qj i是第j个视角的二维图像中第i个特征点的二维坐标,为了将视觉关注度引入三维重建,提高高关注度区域的重建精度,本发明在描述匹配度的c(X)函数中加入关注度加权βj i,βj i是第j个视角的二维图像中第i个特征点的视觉关注度系数,s(X)是平滑项,τ是平滑系数,平滑项s(X)定义为 s ( X ) = a | ∂ X ∂ u | + b | ∂ X ∂ v | , 其中a和b分别是u和v方向平滑惩罚系数,u,v是二维空间坐标。通过全局Graph-Cut[3](S.Paris,F.Sillion,and L.Quan,“A surface reconstruction method using global graphcut optimization,”In ACCV,2004.)可求解最优的p(X)的作为重建的三维表面模型。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (4)

1.一种二维图像组的三维场景重建方法,其特征在于,包括以下步骤:
步骤S1:输入图像组中每幅图像计算各像素的关注度评价;
步骤S2:在输入图像组的各幅图像上提取尺度不变特征变换特征点,并且对图像组中两两图像上的特征点进行匹配和选择,获得的匹配特征点,匹配和选择的原则包括特征点对的特征空间相似度以及获得的特征点相对应的视觉关注度;
步骤S3:利用获得的匹配特征点对对摄像机参数进行估计;
步骤S4:用选取的匹配特征点对、相应特征点的关注度评价以及估计得到的摄像机参数求取优化的三维场景模型。
2.根据权利要求1所述二维图像组的三维场景重建方法,其特征在于:各点视觉关注度的权值按以下方法确定:某像素的视觉关注度由该像素与周围邻域内像素的颜色对比度经归一化描述,此关注度描述对应于该点在特征点选择和匹配、三维表面模型优化过程中的关注度权值。
3.根据权利要求1所述二维图像组的三维场景图像重建方法,其特征在于:在特征点匹配和选择过程中,将特征点的视觉关注度以加权形式引入特征点匹配度的衡量,在选择匹配点时,优先选择视觉关注度高的匹配点对用于后期重建。
4.根据权利要求1所述二维图像组的三维场景重建方法,其特征在于:在三维场景模型优化过程中,在优化函数的特征点投影一致性项中引入特征点关注度加权,优先提高受关注度点附近重建模型的精度。
CN2009102423404A 2009-12-09 2009-12-09 一种二维图像组的三维场景重建方法 Expired - Fee Related CN101877143B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009102423404A CN101877143B (zh) 2009-12-09 2009-12-09 一种二维图像组的三维场景重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009102423404A CN101877143B (zh) 2009-12-09 2009-12-09 一种二维图像组的三维场景重建方法

Publications (2)

Publication Number Publication Date
CN101877143A true CN101877143A (zh) 2010-11-03
CN101877143B CN101877143B (zh) 2012-07-04

Family

ID=43019688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009102423404A Expired - Fee Related CN101877143B (zh) 2009-12-09 2009-12-09 一种二维图像组的三维场景重建方法

Country Status (1)

Country Link
CN (1) CN101877143B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034267A (zh) * 2010-11-30 2011-04-27 中国科学院自动化研究所 基于关注度的目标物三维重建方法
CN102074005A (zh) * 2010-12-30 2011-05-25 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
CN102075686A (zh) * 2011-02-10 2011-05-25 北京航空航天大学 一种鲁棒的实时在线摄像机跟踪方法
CN103761768A (zh) * 2014-01-22 2014-04-30 杭州匡伦科技有限公司 一种三维重建的立体匹配方法
CN104077611A (zh) * 2014-07-14 2014-10-01 金陵科技学院 类地重力场环境下室内场景单目视觉空间识别方法
CN104081435A (zh) * 2014-04-29 2014-10-01 中国科学院自动化研究所 一种基于级联二值编码的图像匹配方法
CN104573290A (zh) * 2015-02-15 2015-04-29 李晴 定制耳机的制造方法、制造装置及制造系统
WO2015139574A1 (zh) * 2014-03-18 2015-09-24 华为技术有限公司 一种静态物体重建方法和系统
CN105279789A (zh) * 2015-11-18 2016-01-27 中国兵器工业计算机应用技术研究所 一种基于图像序列的三维重建方法
WO2016146001A1 (zh) * 2015-03-17 2016-09-22 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
WO2016155377A1 (zh) * 2015-03-31 2016-10-06 百度在线网络技术(北京)有限公司 图片展示方法和装置
CN106529394A (zh) * 2016-09-19 2017-03-22 广东工业大学 一种室内场景物体同时识别与建模方法
CN107230225A (zh) * 2017-04-25 2017-10-03 华为技术有限公司 三维重建的方法和装置
CN107247834A (zh) * 2017-05-31 2017-10-13 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN109074624A (zh) * 2016-04-22 2018-12-21 松下知识产权经营株式会社 三维重建方法
CN110148084A (zh) * 2019-05-21 2019-08-20 智慧芽信息科技(苏州)有限公司 由2d图像重建3d模型的方法、装置、设备及存储介质
CN110348351A (zh) * 2019-07-01 2019-10-18 深圳前海达闼云端智能科技有限公司 一种图像语义分割的方法、终端和可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271582B (zh) * 2008-04-10 2010-06-16 清华大学 基于多视角二维图像并结合sift算法的三维重建方法
CN101383054B (zh) * 2008-10-17 2010-09-08 北京大学 一种基于图像与扫描数据的混合三维重建方法
CN101398937B (zh) * 2008-10-29 2011-05-18 北京航空航天大学 基于同一场景散乱照片集的三维重构方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034267A (zh) * 2010-11-30 2011-04-27 中国科学院自动化研究所 基于关注度的目标物三维重建方法
CN102074005A (zh) * 2010-12-30 2011-05-25 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
CN102075686A (zh) * 2011-02-10 2011-05-25 北京航空航天大学 一种鲁棒的实时在线摄像机跟踪方法
CN102075686B (zh) * 2011-02-10 2013-10-30 北京航空航天大学 一种鲁棒的实时在线摄像机跟踪方法
CN103761768A (zh) * 2014-01-22 2014-04-30 杭州匡伦科技有限公司 一种三维重建的立体匹配方法
WO2015139574A1 (zh) * 2014-03-18 2015-09-24 华为技术有限公司 一种静态物体重建方法和系统
US9830701B2 (en) 2014-03-18 2017-11-28 Huawei Technologies Co., Ltd. Static object reconstruction method and system
CN104081435A (zh) * 2014-04-29 2014-10-01 中国科学院自动化研究所 一种基于级联二值编码的图像匹配方法
CN104077611B (zh) * 2014-07-14 2017-06-09 南京原觉信息科技有限公司 类地重力场环境下室内场景单目视觉空间识别方法
CN104077611A (zh) * 2014-07-14 2014-10-01 金陵科技学院 类地重力场环境下室内场景单目视觉空间识别方法
CN104573290A (zh) * 2015-02-15 2015-04-29 李晴 定制耳机的制造方法、制造装置及制造系统
CN106033621A (zh) * 2015-03-17 2016-10-19 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
US10410405B2 (en) 2015-03-17 2019-09-10 Alibaba Group Holding Limited Reducing computational complexity in three-dimensional modeling based on two-dimensional images
US10789767B2 (en) 2015-03-17 2020-09-29 Alibaba Group Holding Limited Reducing computational complexity in three-dimensional modeling based on two-dimensional images
WO2016146001A1 (zh) * 2015-03-17 2016-09-22 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
CN106033621B (zh) * 2015-03-17 2018-08-24 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
WO2016155377A1 (zh) * 2015-03-31 2016-10-06 百度在线网络技术(北京)有限公司 图片展示方法和装置
US10410397B2 (en) 2015-03-31 2019-09-10 Baidu Online Network Technology (Beijing) Co., Ltd. Picture presentation method and apparatus
CN105279789A (zh) * 2015-11-18 2016-01-27 中国兵器工业计算机应用技术研究所 一种基于图像序列的三维重建方法
CN105279789B (zh) * 2015-11-18 2016-11-30 中国兵器工业计算机应用技术研究所 一种基于图像序列的三维重建方法
CN109074624B (zh) * 2016-04-22 2023-08-15 松下知识产权经营株式会社 三维重建方法
CN109074624A (zh) * 2016-04-22 2018-12-21 松下知识产权经营株式会社 三维重建方法
CN106529394A (zh) * 2016-09-19 2017-03-22 广东工业大学 一种室内场景物体同时识别与建模方法
CN106529394B (zh) * 2016-09-19 2019-07-19 广东工业大学 一种室内场景物体同时识别与建模方法
CN107230225A (zh) * 2017-04-25 2017-10-03 华为技术有限公司 三维重建的方法和装置
CN107247834B (zh) * 2017-05-31 2019-09-24 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN107247834A (zh) * 2017-05-31 2017-10-13 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN110148084A (zh) * 2019-05-21 2019-08-20 智慧芽信息科技(苏州)有限公司 由2d图像重建3d模型的方法、装置、设备及存储介质
CN110148084B (zh) * 2019-05-21 2023-09-19 智慧芽信息科技(苏州)有限公司 由2d图像重建3d模型的方法、装置、设备及存储介质
CN110348351A (zh) * 2019-07-01 2019-10-18 深圳前海达闼云端智能科技有限公司 一种图像语义分割的方法、终端和可读存储介质
CN110348351B (zh) * 2019-07-01 2021-09-28 达闼机器人有限公司 一种图像语义分割的方法、终端和可读存储介质

Also Published As

Publication number Publication date
CN101877143B (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
CN101877143B (zh) 一种二维图像组的三维场景重建方法
Kalantari et al. Learning-based view synthesis for light field cameras
CN106127684B (zh) 基于双向递归卷积神经网络的图像超分辨率增强方法
CN110555434B (zh) 一种局部对比和全局指导的立体图像视觉显著性检测方法
CN105741252B (zh) 基于稀疏表示与字典学习的视频图像分级重建方法
CN103824272B (zh) 基于k近邻重识别的人脸超分辨率重建方法
CN107204010A (zh) 一种单目图像深度估计方法与系统
CN103248906B (zh) 一种双目立体视频序列的深度图获取方法与系统
CN110097115B (zh) 一种基于注意力转移机制的视频显著性物体检测方法
CN101216889A (zh) 一种融合全局特征与局部细节信息的人脸图像超分辨率方法
CN107203745B (zh) 一种基于跨域学习的跨视角动作识别方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN112288627B (zh) 一种面向识别的低分辨率人脸图像超分辨率方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
CN108416751A (zh) 一种基于深度辅助全分辨率网络的新视点图像合成方法
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN109741240A (zh) 一种基于层次聚类的多平面图像拼接方法
CN109272577A (zh) 一种基于Kinect的视觉SLAM方法
CN101794459A (zh) 一种立体视觉影像与三维虚拟物体的无缝融合方法
CN110070574A (zh) 一种基于改进PSMNet的双目视觉立体匹配算法
CN113538243B (zh) 基于多视差注意力模块组合的超分辨图像重建方法
CN104504672B (zh) 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法
Garg et al. Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation
CN102708589B (zh) 一种基于特征聚类的三维目标多视点视图建模方法
CN117095128A (zh) 一种无先验多视角人体服饰编辑方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120704

Termination date: 20211209

CF01 Termination of patent right due to non-payment of annual fee