CN116433843A - 基于双目视觉重建路线的三维模型重建方法及装置 - Google Patents
基于双目视觉重建路线的三维模型重建方法及装置 Download PDFInfo
- Publication number
- CN116433843A CN116433843A CN202310397542.6A CN202310397542A CN116433843A CN 116433843 A CN116433843 A CN 116433843A CN 202310397542 A CN202310397542 A CN 202310397542A CN 116433843 A CN116433843 A CN 116433843A
- Authority
- CN
- China
- Prior art keywords
- image
- points
- algorithm
- characteristic
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims abstract description 87
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 73
- 238000012544 monitoring process Methods 0.000 claims abstract description 20
- 230000003287 optical effect Effects 0.000 claims abstract description 16
- 230000001133 acceleration Effects 0.000 claims abstract description 8
- 238000013519 translation Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000005096 rolling process Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000009191 jumping Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000010276 construction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005316 response function Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000003763 carbonization Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Operations Research (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于双目视觉重建路线的三维模型重建方法及装置。该方法包括:获取双目图像集;基于加速稳健特征SURF算法提取每对图像的特征点,将特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于相机位姿、相机参数以及图像的像素坐标计算像素坐标与世界坐标之间的投影矩阵;利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和投影矩阵,将追踪匹配后的特征点投影到三维空间,得到电网设施的三维点云。本发明能够提高了电网设施模型重建的模型真实度,提高计算效率。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于双目视觉重建路线的三维模型重建方法及装置。
背景技术
随着能源互联网建设发展的不断推进,电网企业将纵向融合源网荷储各环节要素,横向融合能源系统、物理信息、社会经济、自然环境各领域要素,发挥聚合效应,促使电网形态向具有安全化、可靠化、绿色化、低碳化、智能化、主动化、协同化、市场化的数字化主动电网转变,实现海量资源被唤醒、源网荷储全交互、安全效率双提升的电网升级,构建能源互联网生态圈。
数字孪生技术是推进数字化主动电网建设的一个重要环节。数字孪生技术能实现将物理设备的运行状态映射到虚拟空间中,形成可观测、可修改、可重复操作的数字镜像模型,实现对事物远程监控,更全面的对事物运行状态进行实时监测和控制。重建三维模型是孪生模型构建的基础。通过拍摄图片来实现重建三维模型,进而构建孪生模型,助力数字化电网的发展建设。而现有技术电网设施的三维模型重建方法存在缺陷,重建的模型真实度不高,计算效率较低。
发明内容
本发明实施例提供了一种基于双目视觉重建路线的三维模型重建方法及装置,以解决现有技术电网设施重建存在的重建的模型真实度不高,计算效率较低的问题。
第一方面,本发明实施例提供了一种基于双目视觉重建路线的三维模型重建方法,包括:
获取双目图像集,其中,所述双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;
基于加速稳健特征SURF算法提取每对图像的特征点,将所述特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于所述相机位姿、相机参数以及所述图像的像素坐标计算所述像素坐标与世界坐标之间的投影矩阵;
利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和所述投影矩阵,将所述追踪匹配后的特征点投影到三维空间,得到所述电网设施的三维点云。
在一种可能的实现方式中,所述基于加速稳健特征SURF算法提取每对图像的特征点,将所述特征点进行匹配之后还包括:
将所述匹配成功的特征点作为第一特征点组;
从所述第一特征点组中随机选取不共线的预设数量的特征点,基于所述预设数量的特征点确定变换矩阵;
计算所述第一特征点组内的每个特征点与所述变换矩阵的投影误差;
若某个特征点对应的投影误差小于预设的阈值,则将该特征点加入第二特征点组;
判断所述第二特征点组内特征点的个数与预设的最优数据量的关系;若所述第二特征点组的数据的个数大于预设的最优数据量,则更新所述预设的最优数据量,并基于更新后的预设最优数据量和预设公式计算目标迭代次数;
若当前迭代次数大于所述目标迭代次数,则输出第二特征点组的特征点;否则,跳转至从所述第一特征点组中随机选取不共线的预设数量的特征点的步骤;
其中,所述预设公式为:
其中,k为计算的迭代次数,p为置信度,p取0.995,w为内点的比例,m为计算模型所需要的最少样本数。
在一种可能的实现方式中,所述基于所述相机位姿、相机参数以及所述图像的像素坐标计算所述像素坐标与世界坐标之间的投影矩阵,包括:
获取所述第一图像和所述第二图像之间的旋转信息和平移信息,并根据所述旋转信息和所述平移信息确定两个相机的位置;
根据所述两个相机的位置确定所述两个相机之间的相对旋转矩阵和相对平移矩阵;
基于所述相对旋转矩阵和所述相对平移矩阵,并结合相机参数计算所述像素坐标与所述相机坐标的转换关系,得到投影矩阵。
在一种可能的实现方式中,所述根据所述两个相机的位置得到所述两个相机之间的相对旋转矩阵和相对平移矩阵,包括:
基于所述两个相机的位置确定两个相机的相对位置信息;
基于对极几何的极限约束理论和两个相机的相对位置信息,计算本征矩阵;
利用奇异值对所述本征矩阵进行分解,得到所述两个相机之间的相对旋转矩阵和相对平移矩阵。
在一种可能的实现方式中,所述利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配,包括:
利用所述角点监测算法提取所述第一图像的特征点;
提取所述第二图像的特征点,确定所述第二图像的特征点的运动方向信息;
根据所述运动方向信息确定所述第二图像的特征点的偏移量和投影点值;基于所述偏移量和投影点值确定所述第二图像的特征点的灰度平方差;当所述灰度平方差为预设值时,则根据对应的偏移量追踪到所述第二图像的特征点对应的所述第一图像的特征点并将对应的两点进行匹配。
在一种可能的实现方式中,所述获取双目图像集之后还包括:
利用张正友标定法计算相机畸变参数,并利用所述相机畸变参数对所述双目图像集进行校正,得到校正后的双目图像集。
在一种可能的实现方式中,所述基于多视点立体视算法和所述投影矩阵,将所述追踪匹配后的特征点投影到三维空间,得到所述电网设施的三维点云之后,还包括:
利用滚球表面重建算法对所述三维点云进行表面重建,得到重建后电网设施的三维模型;
对所述电网设施的三维模型进行表面纹理映射贴图,得到所述电网设施最终的三维模型。
第二方面,本发明实施例提供了一种基于双目视觉重建路线的三维模型重建装置,包括:
图像获取模块,用于获取双目图像集,其中,所述双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;
计算模块,用于基于加速稳健特征SURF算法提取每对图像的特征点,将所述特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于所述相机位姿、相机参数以及所述图像的像素坐标计算所述像素坐标与世界坐标之间的投影矩阵;
重建模块,用于利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和所述投影矩阵,将所述追踪匹配后的特征点投影到三维空间,得到所述电网设施的三维点云。
第三方面,本发明实施例提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述基于双目视觉重建路线的三维模型重建方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式所述基于双目视觉重建路线的三维模型重建方法的步骤。
本发明实施例相对于现有技术的有益效果在于:本发明实施例获取双目图像集,其中,双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;基于加速稳健特征SURF算法提取每对图像的特征点,将特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于相机位姿、相机参数以及图像的像素坐标计算像素坐标与世界坐标之间的投影矩阵;利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和投影矩阵,将追踪匹配后的特征点投影到三维空间,得到电网设施的三维点云。利用特征提取算法对电网设施的图像特征点进行提取,具有更高的计算效率;同时利用角监测算法对图像特征点再次提取,完成点云映射,进而为电网设施模型重建提供更多的特征点,提高了电网设施模型重建的模型真实度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于双目视觉重建路线的三维模型重建方法的实现流程图;
图2是本发明实施例提供的黑白棋盘图;
图3是本发明实施例提供的基于双目视觉重建路线的三维模型重建装置的结构示意图;
图4是本发明实施例提供的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
图1是本发明实施例提供的基于双目视觉重建路线的三维模型重建方法的实现流程图,参照图1,详述如下:
在步骤101中:获取双目图像集,其中,双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像。
具体地,本发明实施例通过双目相机拍摄待三维重建的电网设施得到一对图像。待三维重建的电网设施具体但不限于变电箱、变压器和断路器等。示例性的,将双目相机一次拍摄的两张图像作为一对图像。利用双目相机对变电箱进行多次拍摄得到至少一对变电箱的图像,将至少一对的变电箱的图像作为图像集。
在一些实施例中,获取双目图像集之后还包括:
利用张正友标定法计算相机畸变参数,并利用相机畸变参数对双目图像集进行校正,得到校正后的双目图像集。
在本实施例中,使用双目相机拍摄不同角度的黑白棋盘格照片,如图2所示,图2是本发明实施例提供的黑白棋盘图,通过张正友标定法对双目相机进行标定,得到相机参数,确定图像的径向畸变参数和切向畸变参数,并利用图像的畸变参数对双目相机拍摄的双目图像集进行畸变校正,进而获得校正后的图像,消除了图像集的畸变,为后续提出特征点提供了便利。
在步骤102中:基于SURF算法提取每对图像的特征点,将特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于相机位姿、相机参数以及图像的像素坐标计算像素坐标与世界坐标之间的投影矩阵。
在本实施例中,SURF算法的具体步骤如下:
1、构造Hessian矩阵,计算特征值α。
假设某个像素点的Hessian矩阵为:
其中,H(x,σ)为某个像素点的Hessian矩阵;Lxx,Lxy是高斯滤波后的图像g(σ)在各个方向上的二阶导数;σ是标准差。
二阶导数的计算方法为:
其中,L(x)=g(h(x)),h(x)为原始图像的灰度值函数,L(x)是将h(x)高斯滤波处理后的图像。
求取图像的特征点需要将原始图像进行变换,SURF算法的变换图是由每个像素点的Hessian行列式的近似值构成,公式为:
Δ(Happrox)=LxxLyy-(0.9Lxy)2
其中,Δ(Happrox)为个像素点的Hessian行列式的近似值。
2、构造高斯金字塔
在SURF算法中,图像大小总是不变的,改变的是高斯滤波的尺寸以及尺度σ。
3、定位特征点
将经过Hessian矩阵处理的每一个特征点在其三位邻域的26个像素点中进行比较,如果是极值点即最大值或者最小值,那么该点确定为初步特征点。最后经过筛选去除不满足阈值条件的点,最后剩下的是最终的特征点。
4、确定特征点主方向
统计特征点邻域内的Harr的小波特征来确定主方向。以特征点为中心,计算半径为6S的邻域内(S为该特征点所处的尺度值),统计60度扇形区域内所有点的水平和垂直方向的Haar小波特征值总和,并赋予权重系数,远离特征点的占比小,靠近特征点的占比大,然后该60度范围内特征值形成一个新的矢量。遍历整个圆形区域,选择最长矢量方向作为该点的主方向。
5、形成特征描述子
在特征点周围选定一个正方形的框,边长确定为20S,将该框划分为16个子区域,每个区域统计25个像素的水平方向和垂直方向的Haar小波特征,包括水平方向之和,水平方向绝对值之和,垂直方向之和,垂直方向绝对值之和,共四个值。所以每个特征点可以得到一个16×4=64维的向量,该向量就是特征描述子。应理解上述解释仅是举例,并不能作为具体限定。
在本实施例中,根据电网设施的匹配成功的特征点来确定相机位姿。相机位姿的是通过寻找图像间配对的特征点,进而计算出的相机之间相对位置关系的过程。最终要得到相机间的位置关系。
在一些实施例中,基于SURF算法提取每对图像的特征点,将特征点进行匹配之后还包括:
将匹配成功的特征点作为第一特征点组;
从第一特征点组中随机选取不共线的预设数量的特征点,基于预设数量的特征点确定变换矩阵;
计算第一特征点组内的每个特征点与变换矩阵的投影误差;
若某个特征点对应的投影误差小于预设的阈值,则将该特征点加入第二特征点组;
判断第二特征点组内特征点的个数与预设的最优数据量的关系;若第二特征点组的数据的个数大于预设的最优数据量,则更新预设的最优数据量,并基于更新后的预设最优数据量和预设公式计算目标迭代次数;
若当前迭代次数大于目标迭代次数,则输出第二特征点组的特征点;否则,跳转至从第一特征点组中随机选取不共线的预设数量的特征点的步骤;
其中,预设公式为:
其中,k为计算的迭代次数,p为置信度,p取0.995,w为内点的比例,m为计算模型所需要的最少样本数。
示例性得,当从特征点中提取4个样本数据时,随机从特征点匹配的数据集中随机抽出4个样本数据(此4个样本之间不能共线),然后计算出变换矩阵H,记为模型M;计算数据集(所有特征匹配点)中所有数据与模型M的投影误差,若数据的投影误差小于设定的阈值,则将该数据加入内点集I;如果当前内点集I元素的个数大于最优内点集I best,则更新Ibest=I,同时更新迭代次数k;如果计算的迭代次数大于k(由I best计算得到),则退出;否则迭代次数加1,并重复上述步骤。结合RANSAC随机抽样一致算法对特征点进行合理性判定,通过迭代提高特征点匹配结果的准确率。应理解,上述解释仅用于举例说明,并不能构成具体限定。
在一些实施例中,基于相机位姿、相机参数以及图像的像素坐标计算像素坐标与世界坐标之间的投影矩阵,包括:
获取第一图像和第二图像之间的旋转信息和平移信息,并根据旋转信息和平移信息确定两个相机的位置;
根据两个相机的位置确定两个相机之间的相对旋转矩阵和相对平移矩阵;
基于相对旋转矩阵和相对平移矩阵,并结合相机参数计算像素坐标与相机坐标的转换关系,确定投影矩阵。
在本实施例中,获取投影矩阵的具体原理如下:
其中,下标为c的表示相机坐标系下的坐标,下标为w的表示世界坐标系下的坐标,R、T分别为相机的旋转矩阵和平移矩阵。M1为相机内参,M2为相机外参,M为投影矩阵;表示(u,v)描述像素点在像素坐标系中的位置;fΔx是像素坐标系下x轴方向焦距的长度;fΔy是像素坐标系下y轴方向焦距的长度。
在一些实施例中,根据两个相机的位置得到两个相机之间的相对旋转矩阵和相对平移矩阵,包括:
基于两个相机的位置确定两个相机的相对位置信息;
基于对极几何的极限约束理论和两个相机的相对位置信息,计算本征矩阵;
利用奇异值对本征矩阵进行分解,得到两个相机之间的相对旋转矩阵和相对平移矩阵。
在本实施例中,相机的外参矩阵可用本征矩阵E来估计。本征矩阵E包含着现实空间中两个相机的相对位置关系,即平移T和旋转R信息。本征矩阵将左相机观测到点的物理坐标与右相机观测到相同点的位置关联起来,可用五点法进行求取。由对极几何的极限约束情况可知,对于归一化平面中的任意匹配点对a1=(u1,v1,1),a2=(u2,v2,1),存在关系:
其中,(u1,v1),(u2,v2)分别为匹配点的像素坐标;e是本征矩阵里的参数值。
同理,把其他的点对同样表示,把所有的特征点放到一个方程中,得到线性方程组:
其中,ui表示第i对特征点。由于本征矩阵只有5个自由度的约束,所以需要5个点对应就可以求解出本质矩阵。对本征矩阵E进行奇异值分解即可得到相机之间的平移T和旋转R信息:
E=U∑VT
其中,I、V为正交矩阵,Σ为奇异值矩阵。应理解,上述解释仅用于举例说明,并不能构成具体限定。
在步骤103中:利用shi-tomasi角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和投影矩阵,将追踪匹配后的特征点投影到三维空间,得到电网设施的三维点云。
在本实施例中,将追踪匹配后电网设施的特征点投影到三维空间中,得到电网设施的三维点云,完成对电网设施的三维模型重建。通过shi-tomasi角点监测算法和稀疏光流跟踪算法进行特征点追踪匹配得到相比于现有技术的更多的特征点,完成对电网设施的三维重建,进而构建孪生模型,助力数字化电网的发展建设。
在一些实施例中,利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配,包括:
利用角点监测算法提取第一图像的特征点;
提取第二图像的特征点,确定第二图像的特征点的运动方向信息;
根据运动方向信息确定第二图像的特征点的偏移量和投影点值;基于偏移量和投影点值确定第二图像的特征点的灰度平方差;当灰度平方差为预设值时,则根据对应的偏移量追踪到第二图像的特征点对应的第一图像的特征点并将对应的两点进行匹配。
在本实施例中,shi-tomasi算法具有较强鲁棒性,且能确定更多的特征点为后续稠密点云重建提供数据基础。shi-tomasi算法的具体步骤如下:
1、以中心为坐标(x,y)的窗函数ω(x,y)作为窗口在图像的x和y两个方向同时做微小的滑动,计算窗口内部的像素灰度值变化量E(u,v),且对其进行二维泰勒公式展开。
2、计算窗口内的角点响应函数:
H=min(λ1,λ2)
其中,H为角点响应函数;λ1和λ2为矩阵的特征值。
3、角点判定,设置阈值threshold,当H>threshold时,判断该点为一个特征角点。提取到第一图像的特征点。
稀疏光流跟踪算法算法的步骤具体如下:
1.检测第一张图片的特征点。
2.在第二张图片对每个特征点进行平移或者映射进行运动轨迹估计。
3.根据运动轨迹进行特征点追踪。
其中,在进行特征追踪之前,需要将特征点周围划定一个正方形特征窗口W,边长为h。定义同一个点在2个图像中的对应点分别为(ux,uy)、(ux+dx,uy+dy),其中dx和dy为图像运动方向,即物体的变化方向。如果两点匹配,那么在窗口W中图片A以e-h/2为窗口,图片B以e+h/2为窗口,灰度的平方差最小。特征点的偏移量为d=[dx,dy]T,投影点为e=[ux,uy]T,灰度的平方差ε按积分表达式为:
其中,I(e)、J(e)分别为图像I、J上的灰度值,即图像1和图像2上的灰度值;w(e)为窗口W的函数。
为了求ε最小值,将上式按偏移量d的方向求偏导,令结果为0即可。
这样就可以解出偏移量d。有了偏移量d之后就可以追踪到图片B中对应图片A的特征点进行匹配。使用shi-tomasi算法和稀疏光流跟踪算法对特征点稠密提取,获得更多特征点完成点云映射。
综上,本发明实施例通过获取双目图像集,其中,双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;基于加速稳健特征SURF算法提取每对图像的特征点,将特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于相机位姿、相机参数以及图像的像素坐标计算像素坐标与世界坐标之间的投影矩阵;利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和投影矩阵,将追踪匹配后的特征点投影到三维空间,得到电网设施的三维点云。利用特征提取算法对图像特征点进行提取,具有更高的计算效率;同时利用角监测算法对图像特征点再次提取,完成点云映射,进而为电网设施的模型重建提供更多的特征点,提高了模型重建的电网设施模型真实度。
在一些实施例中,基于多视点立体视算法和投影矩阵,将追踪匹配后的特征点投影到三维空间,得到电网设施的三维点云之后,还包括:
利用滚球表面重建算法对三维点云进行表面重建,得到重建后电网设施的三维模型。
对电网设施的三维模型进行表面纹理映射贴图,得到电网设施最终的三维模型。
在本实施例中,为了获取高度真实感的物体模型,对获取的电网设施的三维点云利用滚球表面重建算法对三维点云进行表面重建,得到重建后电网设施的三维模型。并对重建后的电网设施的三维模型进行表面问题映射,得到电网设施最终的三维模型,进而构建孪生模型,助力数字化电网的发展建设。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图3示出了本发明实施例提供的基于双目视觉重建路线的三维模型重建装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图3所示,基于双目视觉重建路线的三维模型重建装置30包括:图像获取模块31、计算模块32和重建模块33。
图像获取模块31,用于获取双目图像集,其中,双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;
计算模块32,用于基于加速稳健特征SURF算法提取每对图像的特征点,将特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于相机位姿、相机参数以及图像的像素坐标计算像素坐标与世界坐标之间的投影矩阵;
重建模块33,用于利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和投影矩阵,将追踪匹配后的特征点投影到三维空间,得到电网设施的三维点云。
可选的,计算模块32,还用于:
将匹配成功的特征点作为第一特征点组;
从第一特征点组中随机选取不共线的预设数量的特征点,基于预设数量的特征点确定变换矩阵;
计算第一特征点组内的每个特征点与变换矩阵的投影误差;
若某个特征点对应的投影误差小于预设的阈值,则将该特征点加入第二特征点组;
判断第二特征点组内特征点的个数与预设的最优数据量的关系;若第二特征点组的数据的个数大于预设的最优数据量,则更新预设的最优数据量,并基于更新后的预设最优数据量和预设公式计算目标迭代次数;
若当前迭代次数大于目标迭代次数,则输出第二特征点组的特征点;否则,跳转至从第一特征点组中随机选取不共线的预设数量的特征点的步骤;
其中,预设公式为:
其中,k为计算的迭代次数,p为置信度,p取0.995,w为内点的比例,m为计算模型所需要的最少样本数。
可选的,计算模块32,用于:
获取第一图像和第二图像之间的旋转信息和平移信息,并根据旋转信息和平移信息确定两个相机的位置;
根据两个相机的位置确定两个相机之间的相对旋转矩阵和相对平移矩阵;
基于相对旋转矩阵和相对平移矩阵,并结合相机参数计算像素坐标与相机坐标的转换关系,得到投影矩阵。
可选的,计算模块32,用于:
基于两个相机的位置确定两个相机的相对位置信息;
基于对极几何的极限约束理论和两个相机的相对位置信息,计算本征矩阵;
利用奇异值对本征矩阵进行分解,得到两个相机之间的相对旋转矩阵和相对平移矩阵。
可选的,重建模块33,用于:
利用角点监测算法提取第一图像的特征点;
提取第二图像的特征点,确定第二图像的特征点的运动方向信息;
根据运动方向信息确定第二图像的特征点的偏移量和投影点值;基于偏移量和投影点值确定第二图像的特征点的灰度平方差;当灰度平方差为预设值时,则根据对应的偏移量追踪到第二图像的特征点对应的第一图像的特征点并将对应的两点进行匹配。
可选的,图像获取模块31,还用于利用张正友标定法计算相机畸变参数,并利用相机畸变参数对双目图像集进行校正,得到校正后的双目图像集。
可选的,重建模块33,还用于:
利用滚球表面重建算法对三维点云进行表面重建,得到重建后电网设施的三维模型;
对电网设施的三维模型进行表面纹理映射贴图,得到电网设施最终的三维模型。
图4是本发明一实施例提供的电子设备的示意图。如图4所示,该实施例的电子设备4包括:处理器40、存储器41以及存储在所述存储器41中并可在所述处理器40上运行的计算机程序42。所述处理器40执行所述计算机程序42时实现上述各个基于双目视觉重建路线的三维模型重建方法实施例中的步骤。
所述计算机程序42可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器41中,并由所述处理器40执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序42在所述电子设备4中的执行过程。
所述电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述电子设备可包括,但不仅限于,处理器40、存储器41。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器40可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器41可以是所述电子设备4的内部存储单元,例如电子设备4的硬盘或内存。所述存储器41也可以是所述电子设备4的外部存储设备,例如所述电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41还可以既包括所述电子设备4的内部存储单元也包括外部存储设备。所述存储器41用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器41还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的分割进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构分割成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的分割,仅仅为一种逻辑功能分割,实际实现时可以有另外的分割方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于双目视觉重建路线的三维模型重建方法,其特征在于,包括:
获取双目图像集,其中,所述双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;
基于加速稳健特征SURF算法提取每对图像的特征点,将所述特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于所述相机位姿、相机参数以及所述图像的像素坐标计算所述像素坐标与世界坐标之间的投影矩阵;
利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和所述投影矩阵,将所述追踪匹配后的特征点投影到三维空间,得到所述电网设施的三维点云。
2.根据权利要求1所述的方法,其特征在于,所述基于加速稳健特征SURF算法提取每对图像的特征点,将所述特征点进行匹配之后还包括:
将所述匹配成功的特征点作为第一特征点组;
从所述第一特征点组中随机选取不共线的预设数量的特征点,基于所述预设数量的特征点确定变换矩阵;
计算所述第一特征点组内的每个特征点与所述变换矩阵的投影误差;
若某个特征点对应的投影误差小于预设的阈值,则将该特征点加入第二特征点组;
判断所述第二特征点组内特征点的个数与预设的最优数据量的关系;若所述第二特征点组的数据的个数大于预设的最优数据量,则更新所述预设的最优数据量,并基于更新后的预设最优数据量和预设公式计算目标迭代次数;
若当前迭代次数大于所述目标迭代次数,则输出第二特征点组的特征点;否则,跳转至从所述第一特征点组中随机选取不共线的预设数量的特征点的步骤;
其中,所述预设公式为:
其中,k为计算的迭代次数,p为置信度,p取0.995,w为内点的比例,m为计算模型所需要的最少样本数。
3.根据权利要求1所述的方法,其特征在于,所述基于所述相机位姿、相机参数以及所述图像的像素坐标计算所述像素坐标与世界坐标之间的投影矩阵,包括:
获取所述第一图像和所述第二图像之间的旋转信息和平移信息,并根据所述旋转信息和所述平移信息确定两个相机的位置;
根据所述两个相机的位置确定所述两个相机之间的相对旋转矩阵和相对平移矩阵;
基于所述相对旋转矩阵和所述相对平移矩阵,并结合相机参数计算所述像素坐标与所述相机坐标的转换关系,确定投影矩阵。
4.根据权利要求3所述的方法,其特征在于,所述根据所述两个相机的位置得到所述两个相机之间的相对旋转矩阵和相对平移矩阵,包括:
基于所述两个相机的位置确定两个相机的相对位置信息;
基于对极几何的极限约束理论和两个相机的相对位置信息,计算本征矩阵;
利用奇异值对所述本征矩阵进行分解,得到所述两个相机之间的相对旋转矩阵和相对平移矩阵。
5.根据权利要求1所述的方法,其特征在于,所述利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配,包括:
利用所述角点监测算法提取所述第一图像的特征点;
提取所述第二图像的特征点,确定所述第二图像的特征点的运动方向信息;
根据所述运动方向信息确定所述第二图像的特征点的偏移量和投影点值;基于所述偏移量和投影点值确定所述第二图像的特征点的灰度平方差;当所述灰度平方差为预设值时,则根据对应的偏移量追踪到所述第二图像的特征点对应的所述第一图像的特征点并将对应的两点进行匹配。
6.根据权利要求1所述的方法,其特征在于,所述获取双目图像集之后还包括:
利用张正友标定法计算相机畸变参数,并利用所述相机畸变参数对所述双目图像集进行校正,得到校正后的双目图像集。
7.根据权利要求1所述的方法,其特征在于,所述基于多视点立体视算法和所述投影矩阵,将所述追踪匹配后的特征点投影到三维空间,得到所述电网设施的三维点云之后,还包括:
利用滚球表面重建算法对所述三维点云进行表面重建,得到重建后电网设施的三维模型;
对所述电网设施的三维模型进行表面纹理映射贴图,得到所述电网设施最终的三维模型。
8.一种基于双目视觉重建路线的三维模型重建装置,其特征在于,包括:
图像获取模块,用于获取双目图像集,其中,所述双目图像集中包括至少一对图像,每对图像是由双目相机对待三维重建的电网设施进行拍摄得到的;每对图像包括第一图像和第二图像;
计算模块,用于基于加速稳健特征SURF算法提取每对图像的特征点,将所述特征点进行匹配;根据匹配成功的特征点确定相机位姿;基于所述相机位姿、相机参数以及所述图像的像素坐标计算所述像素坐标与世界坐标之间的投影矩阵;
重建模块,用于利用角点监测算法提取第一图像的特征点,再利用稀疏光流跟踪算法对第二图像的特征点进行追踪匹配;基于多视点立体视算法和所述投影矩阵,将所述追踪匹配后的特征点投影到三维空间,得到所述电网设施的三维点云。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至7中任一项所述基于双目视觉重建路线的三维模型重建方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至7中任一项所述基于双目视觉重建路线的三维模型重建方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310397542.6A CN116433843A (zh) | 2023-04-14 | 2023-04-14 | 基于双目视觉重建路线的三维模型重建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310397542.6A CN116433843A (zh) | 2023-04-14 | 2023-04-14 | 基于双目视觉重建路线的三维模型重建方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116433843A true CN116433843A (zh) | 2023-07-14 |
Family
ID=87092305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310397542.6A Pending CN116433843A (zh) | 2023-04-14 | 2023-04-14 | 基于双目视觉重建路线的三维模型重建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116433843A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116862999A (zh) * | 2023-09-04 | 2023-10-10 | 华东交通大学 | 一种双摄像机三维测量的标定方法、系统、设备和介质 |
CN117251964A (zh) * | 2023-08-03 | 2023-12-19 | 国网陕西省电力有限公司咸阳供电公司 | 场站资源利用与孪生建模重构方法、存储介质及电子设备 |
CN117456550A (zh) * | 2023-12-21 | 2024-01-26 | 绘见科技(深圳)有限公司 | 基于mr的cad文件查看方法、装置、介质和设备 |
-
2023
- 2023-04-14 CN CN202310397542.6A patent/CN116433843A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117251964A (zh) * | 2023-08-03 | 2023-12-19 | 国网陕西省电力有限公司咸阳供电公司 | 场站资源利用与孪生建模重构方法、存储介质及电子设备 |
CN117251964B (zh) * | 2023-08-03 | 2024-05-10 | 国网陕西省电力有限公司咸阳供电公司 | 场站资源利用与孪生建模重构方法、存储介质及电子设备 |
CN116862999A (zh) * | 2023-09-04 | 2023-10-10 | 华东交通大学 | 一种双摄像机三维测量的标定方法、系统、设备和介质 |
CN116862999B (zh) * | 2023-09-04 | 2023-12-08 | 华东交通大学 | 一种双摄像机三维测量的标定方法、系统、设备和介质 |
CN117456550A (zh) * | 2023-12-21 | 2024-01-26 | 绘见科技(深圳)有限公司 | 基于mr的cad文件查看方法、装置、介质和设备 |
CN117456550B (zh) * | 2023-12-21 | 2024-03-15 | 绘见科技(深圳)有限公司 | 基于mr的cad文件查看方法、装置、介质和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363858B (zh) | 一种三维人脸重建方法及系统 | |
CN111145238B (zh) | 单目内窥镜图像的三维重建方法、装置及终端设备 | |
CN108648240B (zh) | 基于点云特征地图配准的无重叠视场相机姿态标定方法 | |
CN106803267B (zh) | 基于Kinect的室内场景三维重建方法 | |
Wang et al. | 360sd-net: 360 stereo depth estimation with learnable cost volume | |
WO2018119889A1 (zh) | 三维场景定位方法和装置 | |
CN116433843A (zh) | 基于双目视觉重建路线的三维模型重建方法及装置 | |
CN111080709B (zh) | 基于轨迹特征配准的多光谱立体相机自标定算法 | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
CN108230235B (zh) | 一种视差图生成系统、方法及存储介质 | |
CN111080776B (zh) | 人体动作三维数据采集和复现的处理方法及系统 | |
TW202145146A (zh) | 圖像配準方法及其相關的模型訓練方法、設備和電腦可讀儲存媒體 | |
Eichhardt et al. | Affine correspondences between central cameras for rapid relative pose estimation | |
CN115035235A (zh) | 三维重建方法及装置 | |
Zheng et al. | Registration of optical images with LiDAR data and its accuracy assessment | |
CN116402976A (zh) | 三维目标检测模型训练方法及装置 | |
CN117132737B (zh) | 一种三维建筑模型构建方法、系统及设备 | |
CN111161348B (zh) | 一种基于单目相机的物体位姿估计方法、装置及设备 | |
CN112258647B (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
CN116704123A (zh) | 一种结合图像主体提取技术的三维重建方法 | |
Price et al. | Augmenting crowd-sourced 3d reconstructions using semantic detections | |
CN115713560A (zh) | 一种摄像头和车辆的外参数标定方法及装置、电子设备、存储介质 | |
CN117649454B (zh) | 双目相机外参自动校正方法、装置、电子设备及存储介质 | |
CN112967398B (zh) | 一种三维数据重建方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |