CN116597000A - 一种基于cnn模型的多相机融合方法 - Google Patents
一种基于cnn模型的多相机融合方法 Download PDFInfo
- Publication number
- CN116597000A CN116597000A CN202310446925.8A CN202310446925A CN116597000A CN 116597000 A CN116597000 A CN 116597000A CN 202310446925 A CN202310446925 A CN 202310446925A CN 116597000 A CN116597000 A CN 116597000A
- Authority
- CN
- China
- Prior art keywords
- camera
- vertical
- line
- line segments
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 17
- 238000013519 translation Methods 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000010276 construction Methods 0.000 claims abstract description 3
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
一种基于CNN模型的多相机融合方法,该方法的过程包括:S1:使用unity3D构建室内3D模型,确定所需要的相机数量、规格、部署位置以及角度,来达到大型室内空间的全覆盖。然后提取各个相机视角下的图像,完成3D和2D数据集的构造;S2:对图片进行预处理后,使用线段提取器提取图像中符合曼哈顿世界的正交线段,然后使用CNN模型提取语义信息对线段分类;S3:建立全局统一世界坐标系,利用得到的正交线段求出水平方向和竖直方向的旋转,并估计平移参数;S4:根据各个相机的空间位姿,将相机两两配对进行空间融合,根据基本矩阵画极线匹配两相机的检测结果,得到目标的空间位置。
Description
技术领域
本发明涉及到计算机视觉、slam等技术领域,具体涉及一种基于CNN的多相机融合技术。
背景技术
多相机融合是一种利用多个摄像机或相机系统获取的图像或视频数据进行融合的技术。它在很多领域都有应用,如计算机视觉、虚拟现实、增强现实、机器人视觉等。以下是多相机融合的一些背景技术:
相机标定:相机标定是多相机融合的前提和基础。通过相机标定可以得到每个相机的内参和位姿等参数,以便于将多个摄像机拍摄的图像或视频数据进行融合。
图像对齐:在进行多相机融合之前,需要将每个相机拍摄到的图像进行对齐,使得它们在相空间中处于相同的坐标系下。这可以通过计算图像之间的几何变换关系来实现,例如通过特征点匹配、光流等方法。
深度估计:深度估计是多相机融合中的关键技术之一。通过对每个相机拍摄到的图像进行深度估计,可以得到场景中物体的三维几何信息,从而更好地进行多相机融合。
光照估计:在多相机融合中,由于每个相机的光照条件可能不同,因此需要对每个相机拍摄到的图像进行光照估计和校正,以便于更好地进行图像融合。
视觉SLAM:视觉SLAM是指通过相机的视觉信息进行同时定位和地图构建的技术。在多相机融合中,视觉SLAM可以帮助确定多个相机的位置和姿态信息,从而更好地进行多相机融合。
多视角几何:多视角几何是指利用多个视角的几何信息进行三维重建和视觉分析的技术。在多相机融合中,多视角几何可以帮助确定不同视角下的三维物体信息,从而更好地进行图像融合和深度估计。
图像对齐任务是一个像素级的任务,现有的图像对齐算法大都通过特征点匹配法来进行多相机的位姿标定,但是在宽基线大视差环境下,多相机难以完美部署以覆盖整个室内空间,特征点在此环境下也难以匹配精确到像素级的特征点,因此需要设计一种新的算法可以求得大视差场景下的精确的相机位姿。
发明内容
为了克服现有技术的不足,本发明提供一种基于CNN模型的多相机融合方法,对大视差、宽基线下的多相机间的相对位姿计算有精确求解,进而解决多相机下目标匹配困难的问题,具有较强的实用性、鲁棒性。
为此,本发明采用如下的技术方案:
一种基于CNN模型的多相机融合方法,包括下列步骤:
S1:使用unity3D构建室内3D模型,通过模拟部署相机,观察各个相机视角所示区域范围,确定所需要的相机数量、规格、部署位置以及调整角度,来达到大型室内空间的全覆盖与双覆盖,并提取各个相机视角下的图像。
S2:对图片进行预处理后,使用LSD线段提取器提取图像中符合曼哈顿世界的正交线段,然后使用CNN模型提取线段的特征并分类。
S3:建立全局统一世界坐标系,利用分类后的正交线段求出水平方向和竖直方向的旋转,并估计平移参数。
S4:根据各个相机的空间位姿,将相机两两配对进行空间融合,根据基本矩阵画极线匹配两相机的检测结果,得到目标的空间位置。
进一步,所述步骤S2包括以下步骤:
使用张正友标定法获取各个相机的内参以及畸变参数,然后对图片进行去畸变处理。使用LSD线段提取器提取图像中符合曼哈顿世界的正交线段。
提取后的线段长度与角度各异,需要过滤出不达标准的线段。首先对于难以去判断其垂直或水平角度的线段,将其过滤;其次在大场景里线段的长短不一,对于比较短的线段,无法确定其方向,无法保证是适合我们计算灭点的线段,所以规定一个长度阈值,只保留超过这个长度的线段;位于地面或软物体(能够活动的物体)上的线段可能位于传感器旋转估计的水平线以下,将其删除;如果线段的投影与重力方向之间的角度大于规定的阈值,则线段被删除。
对于线段的几何特征,使用图像中的位置信息和方向信息,分别表示为fpos和fdir,然后使用CNN模型从图像中提取特征图。对于某条线段,均匀采样N个点,使用双三次插值计算采样点的值,最后使用加权对特征向量求和,得到每条线段的语义特征fcon。根据每个线段的三个特征,我们使用Modified Huber损失,对线段进行分类。
再进一步,所述步骤S3包括以下步骤:
第一阶段计算水平方向的旋转,定义一个旋转矩阵Rv,它是竖直方向(重力方向)的旋转。首先得到图像中的主要垂直消失点,每一个垂直消失点都能由两条垂直线的投影l1和l2的齐次坐标作叉乘计算得到。内点最多的垂直消失点即占主导地位的垂直灭点pv。我们设定2D图像的垂直方向为z=[0 0 0]T,对齐相机的垂直轴和2D图像的主要垂直灭点pv,然后计算旋转Rv。
第二阶段则是求解竖直方向的旋转Rh,在2D图像的室内墙壁立面f(若有多个立面,需要进行遍历)中抽取一条水平线lr和一条竖直线lh,求得墙壁立面f的法线nf,接着从法线所在立面中遍历所有水平线l(这条线要转换为世界坐标系上的三维坐标),这些水平线经Rv进行方向校正后得到先对应的三维水平线l3=Rv Tl,将两个端点做叉乘求得此直线的表达式,就可以计算围绕垂直轴的旋转矩阵Rh。
第三阶段为平移估计,摄像机在全局坐标系中的方向可以从立面上的垂直线段估计出来。在构建室内3D模型时,定义了世界坐标系的原点,那么可以从室内3D模型中得到立面中线段的坐标。我们选择三个以上的垂直线段。我们可以通过将这些垂直线与3D模型中的角点(3D坐标)对齐来估计相机的平移。
更进一步,所述步骤S4中,融合得到相机的相对空间位姿后,经计算得出基本矩阵,根据各个相机所视场景范围,设定mask区域,并设置全局编号,以mask区域作为约束条件。根据基本矩阵画极线匹配两相机的检测结果,计算得到目标的空间位置。
本发明与现有技术相比的有益效果是:本发明提供了一种基于室内3D模型的多相机融合方法,采用unity3D对真实室内场景进行重建,确定预安装相机的数量、规模、部署位置以及角度,使得大型室内场景能被所有相机视角覆盖,无相机死角。图像预处理后,提取正交信息,并使用CNN模型进行线段方向分类,通过正交信息计算得到相机位姿,克服了特征点匹配法在大视差宽基线场景下的受限和不足,最终实现相机的两两融合,再结合mask掩膜约束以及极线匹配方法,得到目标的空间位置。下面结合附图和具体实施例对本发明作进一步描述。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1为基于CNN模型的多相机融合技术的流程示意图;
图2为线池模块从图像中捕获线段的局部图像上下文示意图;
图3为计算相机绝对空间位姿流程示意图;
图4为本方法提供的多相机融合方法的输出示意图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
参照图1,一种基于CNN模型的多相机融合方法,包括如下步骤:
步骤S1:使用unity3D构建包含正交线段的大型室内3D场景数据集。
根据现实大型室内空间场景,使用unity3D构建室内3D模型,通过观察各个相机视角所示区域范围,确定所需要的相机数量、规格、部署位置以及调整角度,来达到大型室内空间的全覆盖。然后提取各个相机视角下的图像,完成3D和2D数据集的构造。
步骤S2:对图片进行预处理后,使用线段提取器提取图像中符合曼哈顿世界的正交线段,然后使用CNN模型提取线段的特征并分类;
步骤S21:使用张正友标定法标定得到相机的内参和畸变系数,对图像进行去畸变处理,然后使用LSD线段提取器提取图像中符合曼哈顿世界的正交线段。
步骤S22:提取后的线段长度与角度各异,我们需要过滤出不达标准的线段。首先对于难以去判断其垂直或水平角度的线段,我们将过滤掉;其次在大场景里线段的长短不一,对于比较短的线段,我们无法确定其方向,无法保证是适合我们计算灭点的线段,所以我们规定一个长度阈值,只保留超过这个长度的线段;位于地面或软物体(能够活动的物体)上的线段会被删除,因为有可能位于从传感器旋转估计的水平线以下;如果线段的投影与重力方向之间的角度大于我们规定的阈值,则线段被删除。
步骤S23:利用线段特征对线段进行分类,本方法设定的线段描述符将正交线段表示为预定义大小的一维向量,其中局部图像上下文和几何特征结合在一起。对于几何特征,使用图像中的位置信息和方向信息,分别表示为fpos和fdir。然后使用CNN模型从图像中提取特征图。对于每条线段,沿着这条线段均匀采样N个点,得到N个总大小为N×c的特征向量。由于采样点可能不在网格点上,所以使用双三次插值从特征图上附近的网格点计算每个采样点的值。最后应用加权对特征向量求和,将其压缩为1×c的大小。最后得到三个特征的串联,具体表示为:
fline=[fcon fpos fdir] (1)
其中,fpos表示位置信息,fdir表示方向信息,fcon每个线段的一维固定大小的特征向量。根据每调线段的三个特征,我们使用Modified Huber损失,对线段进行分类。
图1中的曼哈顿世界正交线段分类模块完成后,将分类后的线段进行位姿求解操作。
S3:计算各个相机的绝对空间位姿;
参照图2,一种计算相机绝对空间位姿方法的流程示意图,包括以下步骤:
参照图2(a),一种计算相机相对于世界坐标系在水平方向的旋转方法,具体如步骤S31:
步骤S31:定义一个旋转矩阵Rv,它是竖直方向(重力方向)的旋转。接着要得到图像中的主要垂直消失点,每一个垂直消失点都由两条垂直线的投影l1和l2的齐次坐标作叉乘计算得到:
p=l1×l2 (2)
大视差、宽基线环境下,图像上相邻的线在实际的世界坐标系中差异很大,尽管经过过滤,提取出的线段依然也会有一定的角度误差。为了抑制这种误差对垂直消失点位置的计算的影响,对于每一对垂直线段,通过叉乘计算得到对应的垂直消失点,并令其与其他线段进行角度误差测量:
pi为每个垂直消失点,lj为所有的竖直线段,用反余弦函数计算出角度,设置角度误差阈值,只要err(pi,lj)的值小于角度误差阈值,就算作pi的一个内点,得出内点数量最多的点即占主导地位的垂直灭点pv。
设定2D图像的垂直方向为z=[0 0 0]T,对齐相机的垂直轴和2D图像的主要垂直灭点pv,然后计算旋转Rv。
对于pv,将其归一化,不去考虑尺度因子,根据垂直灭点pv与假设的二维图像的垂直方向z相乘得到旋转轴u=z×pv,角度为θ=acos(u)。最后使用SO(3)李代数转为李群来构造旋转Rv,求得真实世界到图像世界的转换关系:
参照图2(b),一种计算相机相对于世界坐标系在竖直方向的旋转方法,具体如步骤S32:
步骤S32:第二阶段计算水平方向的旋转Rh。在2D图像的室内墙壁立面f中抽取一条水平线lr和一条竖直线lh,求得墙壁立面f的法线nf:
nf=lr×lh (5)
接着先将nf归一化处理,做其立面法线nf和垂直轴z的叉乘可以得到立面f的水平灭点ph,ph用于对齐方向校正后的水平直线:
ph=nf×z (6)
接着从法线所在立面中遍历所有水平线l,这些水平线经Rv进行方向校正后得到先对应的三维水平线l3=Rv Tl,这里得到的l3由两端点的三维坐标组成,将两个端点做叉乘求得此直线的表达式,就可以计算围绕垂直轴的旋转矩阵Rh,以将相机的水平轴与立面f水平灭点ph对齐。Rv有/>和/>两个自由度,而Rh的自由度则为/>即围绕垂直轴z的旋转量:
根据直线表达式的参数,参数化旋转矩阵:
通过该步骤,最终得到旋转矩阵Rh。
参照图2(c),一种计算相机相对于世界坐标系的平移尺度的方法,具体如步骤S33:
步骤S33:最后一个阶段求解平移估计摄像机在全局坐标系中的方向可以从立面上的垂直线段估计出来。在构建室内3D模型时,定义了世界坐标系的原点,那么可以从室内3D模型中得到立面中线段的坐标。选择三个以上的垂直线段。通过将这些垂直线与3D模型中的角点(3D坐标)对齐来估计相机的平移。
在下面详细介绍这个步骤。
相机高度的先验是易获得的,从室内3D模型中得到相机高度,再根据已变化的求逆矩阵得出相机高度先验t=t-R-1*t,高度先验作为一个方向上的自由度,因此平移只剩2个自由度需要估计。接着从测量出的线段中各找出一个角点,接着可以通过解决下面的线性系统计算相机平移t:
步骤S4:根据各个相机的空间位姿,将相机两两配对进行空间融合,对于融合后得到的两个相机的相对位姿,经过计算得到基本矩阵,设定每个相机下的mask掩膜区域,并为其编制编号,以mask掩膜区域作为约束条件。根据基本矩阵画极线匹配两相机的检测结果,得到目标的空间位置。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (6)
1.一种基于CNN模型的多相机融合方法,其特征在于,所述方法包括以下步骤:
S1:使用unity3D构建包含正交线段的大型室内3D场景数据集,并部署多个具有大视差的相机,采集各个相机视角下的图像。
S2:对图片进行预处理后,使用线段提取器提取图像中符合曼哈顿世界的正交线段,使用CNN模型提取语义特征并分类;
S3:建立全局统一世界坐标系,利用得到的正交线段求出水平方向和竖直方向的旋转,并估计平移参数;
S4:根据各个相机的空间位姿,将相机两两配对进行空间融合,根据基本矩阵画极线匹配两相机的检测结果,得到目标的空间位置。
2.根据权利要求1所述的一种基于CNN模型的多相机融合方法,其特征在于,所述步骤S1中,根据现实大型室内空间场景,使用unity3D构建室内3D模型,通过观察各个相机视角所示区域范围,确定所需要的相机数量、规格、部署位置以及调整角度,来达到大型室内空间的全覆盖。最后提取各个相机视角下的图像,以完成3D和2D数据集的构造。
3.根据权利要求1所述的一种基于CNN模型的多相机融合方法,其特征在于,所述步骤2中,提取正交线段后,对于几何特征,使用图像中的位置信息和方向信息,分别表示为fpos和fdir,使用CNN模型从图像中提取特征图。对于某条线段,均匀采样N个点,使用双三次插值计算采样点的值,最后使用加权对特征向量求和,得到每条线段的语义特征fcon。线段最终表现形式是以上三个特征的串联,描述为:
fline=[fcon fpos fdir] (1)。
4.根据权利要求1所述的一种基于CNN模型的多相机融合方法,其特征在于,所述步骤3中,构建所述基于CNN模型的多相机标定模型包括:第一阶段计算水平方向的旋转。首先得到图像中的主要垂直消失点,每一个垂直消失点都能由两条垂直线的投影l1和l2的齐次坐标作叉乘计算得到。内点最多的垂直消失点即占主导地位的垂直灭点pv。我们设定2D图像的垂直方向为z=[0 0 0]T,对齐相机的垂直轴和2D图像的主要垂直灭点pv,然后计算旋转Rv,可表示为:
第二阶段则是求解竖直方向的旋转Rh,在2D图像的室内墙壁立面f(若有多个立面,需要进行遍历)中抽取一条水平线lr和一条竖直线lh,求得墙壁立面f的法线nf,接着从法线所在立面中遍历所有水平线l(这条线要转换为世界坐标系上的三维坐标),这些水平线经Rv进行方向校正后得到先对应的三维水平线l3=Rv Tl,将两个端点做叉乘求得此直线的表达式,就可以计算围绕垂直轴的旋转矩阵Rh,以将相机的水平轴与立面f水平灭点ph对齐。Rv有/>和/>两个自由度,而Rh的自由度则为/>即围绕垂直轴z的旋转量:
第三阶段为平移估计,相机在全局坐标系中的方向可以从立面上的垂直线段估计出来。在构建室内3D模型时,定义了世界坐标系的原点,从室内3D模型中得到立面中线段的坐标。选择三个以上的垂直线段,通过将这些垂直线与3D模型中的角点(3D坐标)对齐来估计相机的平移,表示为:
5.根据权利要求1所述的一种基于CNN模型的多相机融合方法,其特征在于,所述步骤4中,对于融合后得到的两个相机的相对位姿,经过计算得到基本矩阵,根据基本矩阵画极线匹配两相机的检测结果,使用三角化计算得到目标的空间位置。
6.根据权利要求1所述的一种基于CNN模型的多相机融合方法,其特征在于,所述步骤4中,设定每个相机下存在n个mask区域,为其编号,以mask区域作为约束条件提高极线匹配的精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310446925.8A CN116597000A (zh) | 2023-04-24 | 2023-04-24 | 一种基于cnn模型的多相机融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310446925.8A CN116597000A (zh) | 2023-04-24 | 2023-04-24 | 一种基于cnn模型的多相机融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116597000A true CN116597000A (zh) | 2023-08-15 |
Family
ID=87599879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310446925.8A Pending CN116597000A (zh) | 2023-04-24 | 2023-04-24 | 一种基于cnn模型的多相机融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116597000A (zh) |
-
2023
- 2023-04-24 CN CN202310446925.8A patent/CN116597000A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108717712B (zh) | 一种基于地平面假设的视觉惯导slam方法 | |
Teller et al. | Calibrated, registered images of an extended urban area | |
CN114399554B (zh) | 一种多相机系统的标定方法及系统 | |
Zhang et al. | A UAV-based panoramic oblique photogrammetry (POP) approach using spherical projection | |
CN103106688B (zh) | 基于双层配准方法的室内三维场景重建方法 | |
WO2014024579A1 (ja) | 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム | |
JP6174104B2 (ja) | 室内2d平面図の生成方法、装置及びシステム | |
CN103198524A (zh) | 一种大规模室外场景三维重建方法 | |
CN112686877B (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
CN110874854B (zh) | 一种基于小基线条件下的相机双目摄影测量方法 | |
Phuc Truong et al. | Registration of RGB and thermal point clouds generated by structure from motion | |
CN109840922B (zh) | 基于双目光场相机的深度获取方法和系统 | |
CN112509125A (zh) | 一种基于人工标志物和立体视觉的三维重建方法 | |
WO2023046211A1 (zh) | 摄影测量方法、装置、设备及存储介质 | |
CN117456114B (zh) | 基于多视图的三维图像重建方法及系统 | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
CN111325828A (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
CN105352482B (zh) | 基于仿生复眼微透镜技术的3‑3‑2维目标检测方法及系统 | |
CN111829522B (zh) | 即时定位与地图构建方法、计算机设备以及装置 | |
CN111724446B (zh) | 一种用于建筑物三维重建的变焦距相机外参数标定方法 | |
CN115053260A (zh) | 数据集生成方法、神经网络生成方法和场景模型构建方法 | |
Qu et al. | Computer vision-based 3D coordinate acquisition of surface feature points of building structures | |
CN104596486B (zh) | 基于目标旋转对称特征的位姿测量方法 | |
CN117350996A (zh) | 工业内窥镜视场范围调整方法及系统 | |
CN116597000A (zh) | 一种基于cnn模型的多相机融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |