CN112929626A - 一种基于智能手机影像的三维信息提取方法 - Google Patents
一种基于智能手机影像的三维信息提取方法 Download PDFInfo
- Publication number
- CN112929626A CN112929626A CN202110142883.XA CN202110142883A CN112929626A CN 112929626 A CN112929626 A CN 112929626A CN 202110142883 A CN202110142883 A CN 202110142883A CN 112929626 A CN112929626 A CN 112929626A
- Authority
- CN
- China
- Prior art keywords
- matching
- point
- points
- matrix
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于智能手机影像的三维信息提取方法,涉及近景摄影测量与计算机视觉技术领域。本发明通过对智能手机相机进行标定,获取相机的内参矩阵和畸变系数,利用畸变系数对立体像对进行校正;采用SIFT算法对校正后影像进行特征点提取及匹配,并利用RANSAC算法剔除误匹配点得到初始可靠匹配点;在此基础上,利用同名三角网约束区域增长迭代加密匹配,该过程大大增加已有稀疏点云的数目,获得稠密匹配点云,为三维模型重建提供丰富的点云信息,可以更好的描述地物细节信息,提高三维模型精度。
Description
技术领域
本发明涉及近景摄影测量与计算机视觉技术领域,尤其涉及一种基于智能手机影像的三维信息提取方法。
背景技术
基于影像的三维重建技术是指通过模拟人眼视觉功能,在两幅或者多幅具有重叠范围的影像中提取同名特征并计算其三维信息,进而实现基于数字影像的三维模型重建。目前摄影测量领域影像获取设备多为专业的量测相机,设备成本相对较高。随着智能手机在人们生活中的普及及应用,基于智能手机的三维模型重建将成为研究的热点之一。这一技术实现将有效提高基于影像建模的便捷性,同时大大降低了建模成本及复杂度。
影像匹配是基于影像三维重建的关键核心步骤,匹配结果的密集度及准确性直接决定重建模型的精度及视觉效果。现有基于影像三维重建过程中影像匹配多采用基于SIFT的稀疏匹配,所得点云数量较少,无法很好的描述重建物体的具体细节。
发明内容
针对现有技术的不足,本发明提供一种基于智能手机影像的三维信息提取方法。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于智能手机影像的三维信息提取方法,包括如下步骤:
步骤1:采用张正友相机标定法对智能手机相机进行标定,获取相机的内参矩阵K和畸变系数distortion;
步骤2:采用标定后的相机对目标物体进行不同角度拍摄,获取影像I1和I2,构成一组立体像对;
步骤3:利用畸变系数distortion对影像I1和I2分别进行校正,得到校正后的影像I1′和I2′;
步骤4:采用SIFT算法对校正后的影像I1′和I2′进行特征点提取及匹配,获取初始稀疏匹配点集S0;
步骤5:采用RANSAC算法对初始匹配点进行检核,剔除误匹配点,获取初始匹配点集S;
步骤6:根据匹配点集S,利用8点法计算基础矩阵F;
步骤7.1:根据同名三角网中的所有同名三角形,计算每一组同名对应边的长度比值,选取比值结果中出现频率最高的值作为立体像对的尺度变换率δ,并计算每一组同名对应边的角度差值,选取结果中出现频率最高的值作为立体像对的旋转角度θ;
步骤7.2:匹配过程中以I1′为参考影像,I2′为搜索影像,逐一遍历参考影像上每个三角形,进行加密匹配;
步骤7.2.1:初始化三角形个数i=1;
步骤7.2.2:选取参数影像上第i个三角形,计算其内切圆圆心Triη,将圆心Triη作为待匹配点;
步骤7.2.3:判断内切圆半径是否大于给定的阈值TR,如果大于,转到步骤7.2.4,否则,令i=i+1,转到步骤7.2.2;
步骤7.2.4:确定待匹配点Triη的匹配候选点集Γ;
步骤7.2.4.1:根据基础矩阵F,计算待匹配点在搜索影像上的核线l=F-1Triη,将核线经过搜索影像上第i个三角形内切圆内的像素记为待匹配点的初始匹配候选点集Γ0;
步骤7.2.4.2:分别计算待匹配点与初始匹配候选点集Γ0中每个候选点的相似性系数ρ,保留ρ大于相似性系数阈值Tρ的候选点,得到匹配候选点集Γ={p′j,j=1,2,…,n},n为候选点集中包含候选点的数目;
步骤7.2.5:判断候选点集合是否为空,若是,令i=i+1,转到步骤7.2.2,否则,转到步骤7.2.6;
步骤7.2.6:分别计算候选点集合中每个点到两交点a、b的距离差绝对值,记为如果满足min({D1,D2,…,Dn})<TD,选择其中最小值对应的候选点记为Triη的匹配同名点,记为Tr′iη,转到步骤7.2.7,如果上述条件不满足,则令i=i+1,转到步骤7.2.2;
步骤7.2.7:以Triη为种子点,利用灰度差值约束在圆心为Triη的内切圆内进行“十字型”区域增长,依次选择新增长的点作为待匹配点,进行步骤7.2.8到步骤7.2.9,确定其匹配同名点;
步骤7.2.7.1:以种子点为中心,分别沿水平向左、水平向右、垂直向上、垂直向下四个方向逐像素增长;计算待增长像素与种子点之间的灰度差绝对值,若该值小于给定的阈值Tg,则继续沿该方向向外增长,直到待增长像素与种子点之间的灰度差绝对值大于给定阈值Tg或增长至内切圆边界则停止增长,最终形成一个“十字型”区域;
步骤7.2.7.2:进一步以“十字型”区域较长区域的一方像素为种子点,进行二次增长,逐一选取其上每个像素点作为种子点,沿垂直于长区域方向向两侧增长,直到种子点与待增长像素之间的灰度差绝对值大于给定阈值或增长至内切圆边界则停止增长;
步骤7.2.8:确定待匹配点的匹配候选点集,其具体步骤同步骤7.2.4.1~步骤7.2.4.2;
步骤7.2.9:对上述候选点集不为空的待匹配点,利用几何约束,确定其最终匹配同名点;
步骤7.2.9.1:参考影像上,连接待匹配点与Triη,得到线段L,搜索影像上,对于匹配候选点集中每一个候选点,分别与Tr′iη进行连接,得到线段集Λ={Lj′,j=1,2,…,n′},分别计算L与线段集Λ中每条线段之间的尺度变化率及旋转角度,分别记为集合Δ={δj′,j=1,2,…,n′}和∠={θj′,j=1,2,…,n′};
步骤7.3:判断是否有新匹配点产生,如有,利用新的匹配点更新三角网,重复步骤7.2,迭代加密匹配,否则,迭代停止;
步骤8:以第一幅影像I1的相机坐标系作为世界坐标系,结合相机内参数矩阵K,计算I1和I2获取时,相机的投影矩阵P1和P2;
步骤8.1:对基础矩阵F进行修正,具体实现如下:对基础矩阵F进行奇异值分解(即SVD分解),得到F=UDVT,其中对角矩阵D=diag(d1,d2,d3),且d1>d2>d3,根据基础矩阵秩为2的约束,令d3=0,则得修正后的基础矩阵为F′=Udiag(d1,d2,0)VT;
步骤8.2:根据修正后的基础矩阵F′及相机内参数矩阵K计算本质矩阵E=KTF′K;
步骤8.3:对本质矩阵进行奇异值分解有E=U′D′V′T,得到对角阵D′=diag(d1′,d2′,d3′),定义ξ=(d1′+d2′)/2,则修正后的本质矩阵为E′=U′diag(ξ,ξ,0)V′T;
步骤8.5:得到两影像对应的投影矩阵分别为:P1=K[I|0]和P1=K[R|T],其中I为3*3的单位矩阵;
步骤9.2:对密集匹配点集中任一对同名点,通过步骤9.1计算,均求得其对应的三维空间点,并对其进行颜色信息赋值,最终得到稠密三维点云。
采用上述技术方法所产生的有益效果在于:
本发明提供一种基于智能手机影像的三维信息提取方法,具有如下有益效果:
(1)本发明的一种基于智能手机影像的三维信息提取方法为基于智能手机的三维建模提供基础的技术支持,有望成为小范围或者小物件三维建模数据获取的主要途径之一。利用普通手机代替专业量测相机实现基于影像的三维重建,降低建模的复杂度,提高了建模的便捷性及时效性,具有一定的实用价值及适普性。
(2)本发明在初始SIFT匹配获得稀疏同名点的基础上,进一步利用同名三角网约束区域增长迭代加密匹配,该过程大大增加已有稀疏点云的数目,获得稠密匹配点云,为三维模型重建提供丰富的点云信息,可以更好的描述地物细节信息,提高三维模型精度。
附图说明
图1为本发明具体实施方式中基于智能手机影像的三维信息提取方法流程图;
图2为本发明具体实施方式中相机标定过程中获取的棋盘格影像;
图3为本发明具体实施方式中在不同角度所拍摄待重建物体的立体像对;
图4为本发明具体实施方式中利用畸变系数对图3影像进行校正后的立体像对;
图5为本发明具体实施方式中利用初始可靠同名点构建的同名三角网;
图6为本发明具体实施方式中匹配三角形之间的核线约束示意图;
图7为本发明具体实施方式中基于种子点的十字臂区域增长示意图;
图8为本发明具体实施方式中加密匹配后得到的同名点;
图9为本发明具体实施方式中基于匹配同名点计算得到的三维点云。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于智能手机影像的三维信息提取方法,如图1所示,包括如下步骤:
步骤1:采用张正友相机标定法对智能手机相机进行标定,获取相机的内参矩阵K和畸变系数distortion;
本实施例中采用智能手机从不同角度对固定在墙上的黑白棋盘格进行拍照,棋盘格大小为4.5cm,得到棋盘格影像如图2所示。采用Matlab工具箱对相机进行标定,得到相机参数内参矩阵K和畸变系数distortion分别为:
distortion=[0.09946519 -0.17719102 0 0]。
步骤2:采用标定后的相机对目标物体进行不同角度拍摄,获取影像I1和I2,构成一组立体像对,如图3所示。拍照过程中应满足如下要求:两照片夹角小于30°,确保两影像重叠度大于80%;
步骤3:利用畸变系数distortion对影像I1和I2分别进行校正,得到校正后的影像I1′和I2′,如图4所示;
步骤4:采用SIFT算法对校正后的影像I1′和I2′进行特征点提取及匹配,获取初始稀疏匹配点集S0;S0={(Si,Si′),i=1,2,...,M},其中Si=(ui,vi,1)和Si′=(ui′,vi′,1)分别为左右影像上同名点坐标,M为初始匹配点集中同名点的数目;
步骤5:采用RANSAC算法对初始匹配点进行检核,剔除误匹配点,获取初始匹配点集S;S={(Si,Si′),i=1,2,...,N},其中N为剔除错误匹配点后可靠匹配点集中包含同名点的数目N≤M,在本例中N=1200;
步骤6:根据匹配点集S,利用8点法计算基础矩阵F;
f=[F11 F12 F13 F21 F22 F23 F31 F32 F33]T,
当N≥8时,可根据最小二乘原理直接求解基础矩阵F。
步骤7.1:根据同名三角网中的所有同名三角形,计算每一组同名对应边的长度比值,选取比值结果中出现频率最高的值作为立体像对的尺度变换率δ,并计算每一组同名对应边的角度差值,选取结果中出现频率最高的值作为立体像对的旋转角度θ;
步骤7.2:匹配过程中以I1′为参考影像,I2′为搜索影像,逐一遍历参考影像上每个三角形,进行加密匹配;
步骤7.2.1:初始化三角形个数i=1;
步骤7.2.2:选取参数影像上第i个三角形,计算其内切圆圆心Triη(即三角形内心),将圆心Triη作为待匹配点;
步骤7.2.3:判断内切圆半径是否大于给定的阈值TR,如果大于,转到步骤7.2.4,否则,令i=i+1,转到步骤7.2.2;
步骤7.2.4:确定待匹配点Triη的匹配候选点集Γ;
步骤7.2.4.1:根据基础矩阵F,计算待匹配点在搜索影像上的核线l=F-1Triη,将核线经过搜索影像上第i个三角形内切圆内的像素记为待匹配点的初始匹配候选点集Γ0;如图6所示,核线与内切圆交点为a、b,线段Lab所经过的像素即为初始匹配候选点;
步骤7.2.4.2:分别计算待匹配点与初始匹配候选点集Γ0中每个候选点的相似性系数ρ,保留ρ大于相似性系数阈值Tρ的候选点,得到匹配候选点集Γ={p′j,j=1,2,…,n},n为候选点集中包含候选点的数目;
步骤7.2.5:判断候选点集合是否为空,若是,令i=i+1,转到步骤7.2.2,否则,转到步骤7.2.6;
步骤7.2.6:分别计算候选点集合中每个点到两交点a、b的距离差绝对值,记为如果满足min({D1,D2,…,Dn})<TD,TD=1,选择其中最小值对应的候选点记为Triη的匹配同名点,记为Tr′iη,转到步骤7.2.7,如果上述条件不满足,则令i=i+1,转到步骤7.2.2;
步骤7.2.7:以Triη为种子点,利用灰度差值约束在圆心为Triη的内切圆内进行“十字型”区域增长,依次选择新增长的点作为待匹配点,进行步骤7.2.8到步骤7.2.9,确定其匹配同名点;
步骤7.2.7.1:以种子点为中心,分别沿水平向左、水平向右、垂直向上、垂直向下四个方向逐像素增长;计算待增长像素与种子点之间的灰度差绝对值,若该值小于给定的阈值Tg=15,则继续沿该方向向外增长,直到待增长像素与种子点之间的灰度差绝对值大于给定阈值Tg或增长至内切圆边界则停止增长,最终形成一个“十字型”区域;
步骤7.2.7.2:进一步以“十字型”区域较长区域的一方像素为种子点,如图7,“十字型”区域垂直方向像素数目大于水平方向,因此分别选择“十字型”区域垂直方向像素作为新的种子点进行二次增长,该过程沿种子点向水平方向两侧增长,直到种子点与待增长像素之间的灰度差绝对值大于给定阈值Tg或增长至内切圆边界则停止增长;
步骤7.2.8:确定待匹配点的匹配候选点集,其具体步骤同步骤7.2.4.1~步骤7.2.4.2;
步骤7.2.9:对上述候选点集不为空的待匹配点,利用几何约束,确定其最终匹配同名点;
步骤7.2.9.1:参考影像上,连接待匹配点与Triη,得到线段L,搜索影像上,对于匹配候选点集中每一个候选点,分别与Tr′iη进行连接,假定候选点集中包含候选点的数目为n′,得到线段集Λ={Lj′,j=1,2,…,n′},分别计算L与线段集Λ中每条线段之间的尺度变化率及旋转角度,分别记为集合Δ={δj′,j=1,2,…,n′}和∠={θj′,j=1,2,…,n′};
本实施例中Tδ=3、Tθ=3°。
步骤8:以第一幅影像I1的相机坐标系作为世界坐标系,结合相机内参数矩阵K,计算I1和I2获取时,相机的投影矩阵P1和P2;
步骤8.1:对基础矩阵F进行修正,具体实现如下:对基础矩阵F进行奇异值分解(即SVD分解),得到F=UDVT,其中对角矩阵D=diag(d1,d2,d3),且d1>d2>d3,根据基础矩阵秩为2的约束,令d3=0,则得修正后的基础矩阵为F′=Udiag(d1,d2,0)VT;
步骤8.2:根据修正后的基础矩阵F′及相机内参数矩阵K计算本质矩阵E=KTF′K;
步骤8.3:对本质矩阵进行奇异值分解有E=U′D′V′T,得到对角阵D′=diag(d1′,d2′,d3′),定义ξ=(d1′+d2′)/2,则修正后的本质矩阵为E′=U′diag(ξ,ξ,0)V′T;
步骤9.2:对密集匹配点集中任一对同名点,通过步骤9.1计算,均可求出其对应的三维空间点,并对其进行颜色信息赋值,得到稠密三维点云。
在本实施方式中,在结合SIFT匹配和RANSAC检核算法获取初始可靠匹配点的基础上,通过三角网约束迭代加密匹配,使得同名点数目从1200增加到938464,得到最终稠密三维点云如图9所示。
Claims (7)
1.一种基于智能手机影像的三维信息提取方法,其特征在于,包括以下步骤:
步骤1:采用张正友相机标定法对智能手机相机进行标定,获取相机的内参矩阵K和畸变系数distortion;
步骤2:采用标定后的相机对目标物体进行不同角度拍摄,获取影像I1和I2,构成一组立体像对;
步骤3:利用畸变系数distortion对影像I1和I2分别进行校正,得到校正后的影像I′1和I′2;
步骤4:采用SIFT算法对校正后的影像I′1和I′2进行特征点提取及匹配,获取初始稀疏匹配点集S0;
步骤5:采用RANSAC算法对初始匹配点进行检核,剔除误匹配点,获取初始匹配点集S;
步骤6:根据匹配点集S,利用8点法计算基础矩阵F;
步骤8:以第一幅影像I1的相机坐标系作为世界坐标系,结合相机内参数矩阵K,计算I1和I2获取时,相机的投影矩阵P1和P2;
2.根据权利要求1所述的一种基于智能手机影像的三维信息提取方法,其特征在于,所述步骤7具体包括:
步骤7.1:根据同名三角网中的所有同名三角形,计算每一组同名对应边的长度比值,选取比值结果中出现频率最高的值作为立体像对的尺度变换率δ,并计算每一组同名对应边的角度差值,选取结果中出现频率最高的值作为立体像对的旋转角度θ;
步骤7.2:匹配过程中以I′1为参考影像,I′2为搜索影像,逐一遍历参考影像上每个三角形,进行加密匹配;
步骤7.3:判断是否有新匹配点产生,如有,利用新的匹配点更新三角网,重复步骤7.2,迭代加密匹配,否则,迭代停止。
3.根据权利要求2所述的一种基于智能手机影像的三维信息提取方法,其特征在于,所述步骤7.2具体包括:
步骤7.2.1:初始化三角形个数i=1;
步骤7.2.2:选取参数影像上第i个三角形,计算其内切圆圆心Triη,将圆心Triη作为待匹配点;
步骤7.2.3:判断内切圆半径是否大于给定的阈值TR,如果大于,转到步骤7.2.4,否则,令i=i+1,转到步骤7.2.2;
步骤7.2.4:确定待匹配点Triη的匹配候选点集Γ;
步骤7.2.4.1:根据基础矩阵F,计算待匹配点在搜索影像上的核线l=F-1Triη,将核线经过搜索影像上第i个三角形内切圆内的像素记为待匹配点的初始匹配候选点集Γ0;
步骤7.2.4.2:分别计算待匹配点与初始匹配候选点集Γ0中每个候选点的相似性系数ρ,保留ρ大于相似性系数阈值Tρ的候选点,得到匹配候选点集Γ={p′j,j=1,2,…,n},n为候选点集中包含候选点的数目;
步骤7.2.5:判断候选点集合是否为空,若是,令i=i+1,转到步骤7.2.2,否则,转到步骤7.2.6;
步骤7.2.6:分别计算候选点集合中每个点到两交点a、b的距离差绝对值,记为如果满足min({D1,D2,…,Dn})<TD,选择其中最小值对应的候选点记为Triη的匹配同名点,记为T′riη,转到步骤7.2.7,如果上述条件不满足,则令i=i+1,转到步骤7.2.2;
步骤7.2.7:以Triη为种子点,利用灰度差值约束在圆心为Triη的内切圆内进行“十字型”区域增长,依次选择新增长的点作为待匹配点,进行步骤7.2.8到步骤7.2.9,确定其匹配同名点;
步骤7.2.8:确定待匹配点的匹配候选点集,其具体步骤同步骤7.2.4.1~步骤7.2.4.2;
步骤7.2.9:对上述候选点集不为空的待匹配点,利用几何约束,确定其最终匹配同名点。
4.根据权利要求3所述的一种基于智能手机影像的三维信息提取方法,其特征在于,所述步骤7.2.7具体包括:
步骤7.2.7.1:以种子点为中心,分别沿水平向左、水平向右、垂直向上、垂直向下四个方向逐像素增长;计算待增长像素与种子点之间的灰度差绝对值,若该值小于给定的阈值Tg,则继续沿该方向向外增长,直到待增长像素与种子点之间的灰度差绝对值大于给定阈值Tg或增长至内切圆边界则停止增长,最终形成一个“十字型”区域;
步骤7.2.7.2:进一步以“十字型”区域较长区域的一方像素为种子点,进行二次增长,逐一选取其上每个像素点作为种子点,沿垂直于长区域方向向两侧增长,直到种子点与待增长像素之间的灰度差绝对值大于给定阈值或增长至内切圆边界则停止增长。
6.根据权利要求1所述的一种基于智能手机影像的三维信息提取方法,其特征在于,所述步骤8具体包括:
步骤8.1:对基础矩阵F进行修正,具体实现如下:对基础矩阵F进行奇异值分解(即SVD分解),得到F=UDVT,其中对角矩阵D=diag(d1,d2,d3),且d1>d2>d3,根据基础矩阵秩为2的约束,令d3=0,则得修正后的基础矩阵为F′=Udiag(d1,d2,0)VT;
步骤8.2:根据修正后的基础矩阵F′及相机内参数矩阵K计算本质矩阵E=KTF′K;
步骤8.3:对本质矩阵进行奇异值分解有E=U′D′V′T,得到对角阵D′=diag(d′1,d′2,d′3),定义ξ=(d′1+d′2)/2,则修正后的本质矩阵为E′=U′diag(ξ,ξ,0)V′T;
步骤8.5:得到两影像对应的投影矩阵分别为:P1=K[I|0]和P1=K[R|T],其中I为3*3的单位矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110142883.XA CN112929626B (zh) | 2021-02-02 | 2021-02-02 | 一种基于智能手机影像的三维信息提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110142883.XA CN112929626B (zh) | 2021-02-02 | 2021-02-02 | 一种基于智能手机影像的三维信息提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112929626A true CN112929626A (zh) | 2021-06-08 |
CN112929626B CN112929626B (zh) | 2023-02-14 |
Family
ID=76169573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110142883.XA Active CN112929626B (zh) | 2021-02-02 | 2021-02-02 | 一种基于智能手机影像的三维信息提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112929626B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113688917A (zh) * | 2021-08-30 | 2021-11-23 | 东南大学 | 一种基于dem约束的双目视频图像匹配方法 |
CN114758151A (zh) * | 2022-03-21 | 2022-07-15 | 辽宁工程技术大学 | 一种结合线特征与三角网约束的序列影像密集匹配方法 |
CN114913246A (zh) * | 2022-07-15 | 2022-08-16 | 齐鲁空天信息研究院 | 相机标定方法、装置、电子设备及存储介质 |
CN115359193A (zh) * | 2022-10-19 | 2022-11-18 | 南京航空航天大学 | 一种基于双目鱼眼相机的快速半稠密三维重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208009A1 (en) * | 2010-10-01 | 2013-08-15 | Saab Ab | Method and apparatus for optimization and incremental improvement of a fundamental matrix |
CN107767440A (zh) * | 2017-09-06 | 2018-03-06 | 北京建筑大学 | 基于三角网内插及约束的文物序列影像精细三维重建方法 |
CN109685886A (zh) * | 2018-11-19 | 2019-04-26 | 国网浙江杭州市富阳区供电有限公司 | 一种基于混合现实技术的配网三维场景建模方法 |
CN110910431A (zh) * | 2019-10-15 | 2020-03-24 | 西安理工大学 | 一种基于单目相机多视点三维点集恢复方法 |
-
2021
- 2021-02-02 CN CN202110142883.XA patent/CN112929626B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208009A1 (en) * | 2010-10-01 | 2013-08-15 | Saab Ab | Method and apparatus for optimization and incremental improvement of a fundamental matrix |
CN107767440A (zh) * | 2017-09-06 | 2018-03-06 | 北京建筑大学 | 基于三角网内插及约束的文物序列影像精细三维重建方法 |
CN109685886A (zh) * | 2018-11-19 | 2019-04-26 | 国网浙江杭州市富阳区供电有限公司 | 一种基于混合现实技术的配网三维场景建模方法 |
CN110910431A (zh) * | 2019-10-15 | 2020-03-24 | 西安理工大学 | 一种基于单目相机多视点三维点集恢复方法 |
Non-Patent Citations (2)
Title |
---|
张宁等: "基于智能手机立体影像的稠密三维重建", 《遥感信息》 * |
王竞雪等: "迭代三角网约束的近景影像密集匹配", 《信号处理》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113688917A (zh) * | 2021-08-30 | 2021-11-23 | 东南大学 | 一种基于dem约束的双目视频图像匹配方法 |
CN114758151A (zh) * | 2022-03-21 | 2022-07-15 | 辽宁工程技术大学 | 一种结合线特征与三角网约束的序列影像密集匹配方法 |
CN114758151B (zh) * | 2022-03-21 | 2024-05-24 | 辽宁工程技术大学 | 一种结合线特征与三角网约束的序列影像密集匹配方法 |
CN114913246A (zh) * | 2022-07-15 | 2022-08-16 | 齐鲁空天信息研究院 | 相机标定方法、装置、电子设备及存储介质 |
CN115359193A (zh) * | 2022-10-19 | 2022-11-18 | 南京航空航天大学 | 一种基于双目鱼眼相机的快速半稠密三维重建方法 |
CN115359193B (zh) * | 2022-10-19 | 2023-01-31 | 南京航空航天大学 | 一种基于双目鱼眼相机的快速半稠密三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112929626B (zh) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112929626B (zh) | 一种基于智能手机影像的三维信息提取方法 | |
CN108648240B (zh) | 基于点云特征地图配准的无重叠视场相机姿态标定方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN107833181B (zh) | 一种基于变焦立体视觉的三维全景图像生成方法 | |
CN111784778B (zh) | 基于线性求解非线性优化的双目相机外参标定方法和系统 | |
CN112233181B (zh) | 6d位姿识别的方法、装置及计算机存储介质 | |
CN110969668A (zh) | 一种长焦双目相机的立体标定算法 | |
CN109754459B (zh) | 一种用于构建人体三维模型的方法及系统 | |
CN110443879B (zh) | 一种基于神经网络的透视误差补偿方法 | |
CN105654476B (zh) | 基于混沌粒子群优化算法的双目标定方法 | |
CN110189400B (zh) | 一种三维重建方法、三维重建系统、移动终端及存储装置 | |
CN109376641B (zh) | 一种基于无人机航拍视频的运动车辆检测方法 | |
CN113920205B (zh) | 一种非同轴相机的标定方法 | |
CN116129037B (zh) | 视触觉传感器及其三维重建方法、系统、设备及存储介质 | |
CN116778288A (zh) | 一种多模态融合目标检测系统及方法 | |
CN112243518A (zh) | 获取深度图的方法、装置及计算机存储介质 | |
CN110660099B (zh) | 基于神经网络的遥感影像处理的有理函数模型拟合方法 | |
CN113642397B (zh) | 一种基于手机视频的物体长度测量方法 | |
CN112017259B (zh) | 一种基于深度相机与热像仪的室内定位与建图方法 | |
CN110992259B (zh) | 基于弱特征邻域概率匹配的点云拼接方法及系统 | |
CN117726747A (zh) | 补全弱纹理场景的三维重建方法、装置、存储介质和设备 | |
CN107240149A (zh) | 基于图像处理的物体三维模型构建方法 | |
CN112819900B (zh) | 一种智能立体摄影内方位、相对定向和畸变系数标定方法 | |
CN114863021A (zh) | 一种基于三维重建场景的仿真数据集分析方法及系统 | |
CN110223252B (zh) | 一种基于复合自适应区域生长准则的深度图像修复算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |