CN110766782A - 基于多无人机视觉协同的大型施工场景实时重构方法 - Google Patents

基于多无人机视觉协同的大型施工场景实时重构方法 Download PDF

Info

Publication number
CN110766782A
CN110766782A CN201910838905.9A CN201910838905A CN110766782A CN 110766782 A CN110766782 A CN 110766782A CN 201910838905 A CN201910838905 A CN 201910838905A CN 110766782 A CN110766782 A CN 110766782A
Authority
CN
China
Prior art keywords
point
image
matching
unmanned aerial
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910838905.9A
Other languages
English (en)
Inventor
何斌
刘文泽
周艳敏
王志鹏
沈润杰
袁烽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201910838905.9A priority Critical patent/CN110766782A/zh
Publication of CN110766782A publication Critical patent/CN110766782A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Architecture (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

基于多无人机视觉协同的大型施工场景实时重构方法,利用多无人机同时对同一个目标施工场景进行拍摄,每架无人机在各自的任务区域内进行飞行拍摄;对每架无人机获得的视频进行筛选获取关键帧序列;基于高斯尺度空间定义多尺度Harris算子,用多尺度Harris算子计算获得尺度不变性的角点,基于Forstner算子对角点精定位;将精定位的角点作为关键点、参照SIFT方法对关键点进行描述,生成关键点描述向量;用KD树对关键点进行匹配,剔除无匹配的关键点,剩余的关键点形成待求的匹配点对集合;获得稀疏点云;获得稠密点云,获得场景重构模型。本发明具有能够快速对大型施工场景进行现场情况的拍摄,并且能够快速并准确地对施工场景进行重构的优点。

Description

基于多无人机视觉协同的大型施工场景实时重构方法
技术领域
本发明涉及一种对大型施工场景实时重构的方法。
背景技术
随着社会信息化程度的加深,三维重建技术的应用场景也越来越丰富,从动画设计到军事应用,不一而足。而近年来,随着我国经济飞速发展,建筑业的产业规模也不断扩大,具体表现在建筑工程数量和规模的增大。值得注意的是,建筑施工进度对工程项目的经济效益至关重要,而当前我国施工进度管理主要以人力方式为主,缺少智能化,且施工环境通常危险性相对较大。基于上述因素,设计一套施工进度监测方法将具有重要应用价值。而这一切的前提在于能准确地实现对施工场景的三维实时重构。
同时,微型遥感技术和机器视觉技术的发展使得基于无人机视觉的三维重构技术逐渐受到关注。其与传统的三维测量技术相比具有成本低廉,机动性较强,图像信息丰富等特点,为场景实时三维重构提供了有利条件。
传统的三维重构技术大多直接通过数学模型或利用机械扫描设备进行扫描,从而重建三维模型,但其存在成本高昂,灵活性较差等问题,特别是面对大型场景时建模的实时性和便捷性很难保证。此外,即使是基于机器视觉的三维重构方法,也存在诸如图像配准算法时间复杂度较大等问题,导致其不能直接应用于室外大场景的三维重建。
发明内容
本发明的目的在于提供一种能够快速对大型施工场景进行现场情况的拍摄,并且能够快速并准确地对施工场景进行重构的方法。
基于多无人机视觉协同的大型施工场景实时重构方法,执行以下操作:利用多无人机同时对同一个目标施工场景进行拍摄,每架无人机在各自的任务区域内进行飞行拍摄;对每架无人机获得的视频进行筛选获取关键帧序列;基于高斯尺度空间定义多尺度Harris算子,用多尺度Harris算子计算获得尺度不变性的角点,基于Forstner算子对角点精定位;将精定位的角点作为关键点、参照SIFT方法对关键点进行描述,生成关键点描述向量;用KD树对关键点进行匹配,基于RANSAC剔除无匹配的关键点,剩余的关键点形成待求的匹配点对集合;用待求的匹配点对集合进行相机参数估计和稀疏重建获得稀疏点云;将稀疏点云进行聚类,聚类后进行稠密重建获得稠密点云,将稠密点云进行曲面拟合和纹理映射获得场景重构模型。
优选的,筛选包括对清晰度的浅层筛选;做浅层筛选时,将无人机获得的视频图像序列看做是无参考图像的清晰度评价问题,采用Laplacian(拉普拉斯)梯度函数作为清晰度评价的梯度函数,Laplacian算子为:
Figure BDA0002193069350000011
图像清晰度D(f),D(f)=∑yx|G(x,y)|,(G(x,y)>T),G(x,y)是坐标(x,y)处的Laplacian卷积。Laplacian梯度函数采用Laplacian算子计算梯度,图像清晰度D(f)采用Laplacian梯度函数来衡量图像清晰度;将图像清晰度D(f)小于清晰度阈值的帧图像去除。清晰度阈值是预设值。
优选的,对浅层筛选获得的图像序列进行基于几何鲁棒信息准则和特征对应率的深层筛选,浅层筛选获得的图像序列任选两帧作为参考图像对,其余图像作为待匹配图像;深层筛选的原则包括:计算参考图像对与待匹配图像的特征对应率Rc,筛选出符合特征对应率预设范围的图像序列,剔除信息冗余的图像;计算深层筛选第一序列中每一帧待匹配图像与参考图像的基础矩阵的GRIC值,每一帧待匹配图像与参考图像的单应矩阵的GRIC值,将单应矩阵的GRIC值小于基础矩阵的GRIC值的待匹配图像作为候选帧图像;符合特征对应率预设范围的候选帧图像作为深层筛选获得的图像序列。图像的单应矩阵的GRIC值小于基础矩阵的GRIC值,说明两帧图像未出现图像退化。
定义特征对应率Rc,
Figure BDA0002193069350000021
其中,Tc为待匹配图像和任意一帧参考图像之间对应的特征点的数量,Tf为参考图像对之间对应的特征点的数量;
几何鲁邦信息准则GRIC定义为:
Figure BDA0002193069350000022
其中,d是模型维数,n是匹配的特征点数量,k是模型自由度,ρ为函数,ei为留数,μ1=ln(r)
μ2=ln(rn)
Figure BDA0002193069350000023
其中,r为数据维度,d为模型维度,σ2为误差平方,μ3为限制留数的参数。
深度筛选的目的在于获得特征匹配率高,并且无图像退化的匹配帧对,去除无效图像数据,降低图像数据的处理量。
优选的,利用Harris-SIFT算子进行图像特征点提取和定位包括以下操作:构建高斯尺度空间,一幅图像的高斯尺度空间表示为:L(x,y,σ)=G(x,y,σ)*I(x,y);其中,G(x,y,σ)表示高斯核函数,I(x,y)表示坐标(x,y)处的像素灰度,σ={σ12,...,σi},σi表示第i个尺度、,Harris算子二阶矩表示为:
Figure BDA0002193069350000024
(x,y)为图像的像素坐标,σi表示第i个尺度,gx,gy分别表示对图像使用高斯核函数在x或y方向取微分的结果;在每个尺度σi下分别对应有各自的角点响应函数CRF,
Figure BDA0002193069350000025
其中,∈是极小量;以角点响应函数计算获得的角点作为Forstner算子的最佳窗口中心点,对最佳窗口内的每个像素的边缘直线进行加权中心化处理。角点响应函数计算得到的值用于判断某个像素点是否为角点,判断方法采用传统的Harris角点检测原理。
Forstner算子是精确定位角点坐标的方法,然后以中心点为基准,以窗口尺寸为依据,然后是获得窗口内的每个像素点的边缘直线,然后加权中心化,得到的中心点作为角点的精定位。
优选的,用KD树对关键点进行匹配的具体操作包括:用关键点随机生成M个不同结构的KD树;对每一个关键点同时搜索M个KD树,得到与该关键点最近邻的候选点,每个关键点与其最近邻的候选点形成一组匹配点对;然后基于队列对节点进行排序,按照节点与查询点之间的距离依次进行搜索。
优选的,基于RANSAC算法消除无匹配点,包括以下操作:从KD树搜索获得的匹配点对中任意选取三组匹配点对作为当前匹配点对,计算获得匹配点对中关键点与其最近邻的候选点之间的变换关系;对剩余的匹配点对,利用关键点和变换关系计算获得该特征点的最邻近候选点位置,获得关键点与计算获得的最邻近候选点位置的距离;将关键点与计算获得的最邻近候选点位置的距离于预设的距离阈值比较,距离小于距离阈值的匹配点对作为内点对,距离大于距离阈值的匹配点对作为外点对,获得内点对集合,从内点对集合中任意选取三个匹配点对作为当前匹配点对,重复执行上述操作,直到迭代次数达到指定次数,选择内点对数量最多的集合为待求的匹配点对集合。
优选的,用待求的匹配点对集合进行相机参数估计和稀疏重建,从而获得稀疏点云,具体操作包括基于运动恢复结构算法估计场景的初始结构和相机运动;用优化算法对场景机构和相机矩阵参数进行优化和几何拟合,完成稀疏重建。优化目的是获得更好的重建效果,因为随着三维重建图像数量增加,累计误差会增大,所以要利用光束法平差算法减少累计误差。
优化算法采用光束法平差算法消除稀疏重建的累积误差,其中,xi,j是第i个点在第k张图片上的投影坐标min下面的x是优化参数,例如相机参数等;f是代价函数,LI是损失函数。
优选的,将稀疏点云进行聚类,聚类后进行稠密重建获得稠密点云的具体操作包括:基于CMVS算法对稀疏点云进行聚类,对聚类后的稀疏点云基于PMVS算法完成稠密重建,获得稠密点云。
现有的图像匹配算法分为基于区域匹配的方法,基于变换域的方法和基于特征匹配的方法,基于特征的匹配方法对于光照和噪声的鲁棒性较高;基于特征的匹配方法以SIFT方法最为突出,SIFT方法具有尺度、旋转和光照不变性等,但SIFT算子在提取特征点时会在DOG尺度空间检测极值点,运算量大,复杂度较高,因此SIFT方法的时效性差。而Harris算法具有旋转和光照不变性,并且Harris算子运算简单,只用到一阶差分获取梯度信息,复杂度较低,实时性好,但是Harris算法不能保证尺度不变性。本发明通过构造高斯尺度空间,为Harris算子添加了尺度信息,并基于此获得尺度不变性的角点特征,然后再使用Forstner算子修正Harris算子所获得的角点位置,最后借鉴SIFT算子来描述精定位之后的角点主方向和产生角点描述向量;本方法兼顾了Harris算法的时效性和SIFT算子尺度、旋转和光照不变性的优点。
本发明的优点在于:1、利用多无人机协同拍摄同一个施工场景,提高了采样的时效性,缩短采样时间。2、对无人机获得的图像进行粗细筛选,从而获得清晰度高、鲁棒性好的图像数据,减少图像数据的处理总量。3、通过构造高斯尺度空间,为Harris算子添加了尺度信息,并基于此获得尺度不变性的角点特征,上述过程替换了SIFT算子的关键点定位步骤,Harris算子只用到一阶差分,运算比SIFT算子简单,因此,在提取尺度不变性的角点时,降低了运算量,提高了运算速度。4、采用Harris算子得出的角点作为Forstner算子的最佳窗口中心点,用Forstner算子对Harris算子提取的角点精定位,提高定位精度。
附图说明
图1为本发明实例中所述的浅层筛选流程图。
图2为本发明实例中所述的大型施工场景的实时重构的流程图。
具体实施方式
如图2所示,基于多无人机视觉协同的大型施工场景实时重构方法,执行以下操作:利用多无人机同时对同一个目标施工场景进行拍摄,每架无人机在各自的任务区域内进行飞行拍摄;对每架无人机获得的视频进行筛选获取关键帧序列;基于高斯尺度空间定义多尺度Harris算子,用多尺度Harris算子计算获得尺度不变性的角点,基于Forstner算子对角点精定位;将精定位的角点作为关键点、参照SIFT方法对关键点进行描述,生成关键点描述向量;用KD树对关键点进行匹配,基于RANSAC剔除无匹配的关键点,剩余的关键点形成待求的匹配点对集合;用待求的匹配点对集合进行相机参数估计和稀疏重建获得稀疏点云;将稀疏点云进行聚类,聚类后进行稠密重建获得稠密点云,将稠密点云进行曲面拟合和纹理映射获得场景重构模型。
优选的,筛选包括对清晰度的浅层筛选,如图1所示;做浅层筛选时,将无人机获得的视频图像序列看做是无参考图像的清晰度评价问题,采用Laplacian(拉普拉斯)梯度函数作为清晰度评价的梯度函数,Laplacian算子为:
Figure BDA0002193069350000041
图像清晰度D(f),D(f)=∑yx|G(x,y)|,(G(x,y)>T),G(x,y)是坐标(x,y)处的Laplacian卷积。Laplacian梯度函数采用Laplacian算子计算梯度,图像清晰度D(f)采用Laplacian梯度函数来衡量图像清晰度;将图像清晰度D(f)小于清晰度阈值的帧图像去除。清晰度阈值是预设值。
优选的,对浅层筛选获得的图像序列进行基于几何鲁棒信息准则和特征对应率的深层筛选,浅层筛选获得的图像序列任选一帧作为参考图像,其余图像作为待匹配图像;深层筛选的原则包括:计算参考图像与待匹配图像的特征对应率Rc,剔除信息冗余的图像;计算深层筛选第一序列中每一帧待匹配图像与参考图像的基础矩阵的GRIC值,每一帧待匹配图像与参考图像的单应矩阵的GRIC值,将单应矩阵的GRIC值小于基础矩阵的GRIC值的待匹配图像作为候选帧图像;符合特征对应率预设范围的候选帧图像作为深层筛选获得的图像序列。图像的单应矩阵的GRIC值小于基础矩阵的GRIC值,说明两帧图像未出现图像退化。
定义特征对应率Rc,
Figure BDA0002193069350000042
其中,Tc为待匹配图像和任意一帧参考图像之间对应的特征点的数量,Tf为参考图像对之间对应的特征点的数量。比如,以A图像和B图像作为参考图像对,C图像作为待匹配图像,Tf是A图像和B图像之间特征点对应数量,Tc是图像A和图像C特征点对应数量;若Tf和Tc差不多(Rc计算值大于特征对应率阈值),那么说明B,C包含的图像信息差不多,C图像的信息冗余了,将C图像剔除。
几何鲁邦信息准则GRIC定义为:
Figure BDA0002193069350000051
其中,d是模型维数,n是匹配的特征点数量,k是模型自由度,ρ为函数,ei为留数,μ1=ln(r)
μ2=ln(rn)
Figure BDA0002193069350000052
其中,r为数据维度,d为模型维度,σ2为误差平方,μ3为限制留数的参数。优选的,利用Harris-SIFT算子进行图像特征点提取和定位包括以下操作:构建高斯尺度空间,一幅图像的高斯尺度空间表示为:L(x,y,σ)=G(x,y,σ)*I(x,y);其中,G(x,y,σ)表示高斯核函数,I(x,y)表示坐标(x,y)处的像素灰度,σ={σ12,...,σi},σi表示第i个尺度、,Harris算子二阶矩表示为:
Figure BDA0002193069350000053
(x,y)为图像的像素坐标,σi表示第i个尺度,gx,gy分别表示对图像使用高斯核函数在x或y方向取微分的结果;在每个尺度σi下分别对应有各自的角点响应函数CRF,其中,∈是极小量;以角点响应函数计算计算获得的角点作为Forstner算子的最佳窗口中心点,对最佳窗口内的每个像素的边缘直线进行加权中心化处理。角点响应函数计算得到的值用于判断像素点是否为角点,判断方法采用传统的Harris角点检测原理。传统的角点检测的基本原理就是取一像素的邻域窗口,然后在各个方向移动这个窗口。观察窗口内的平均像素值变化,对于角点来说,就是像素值在水平和竖直方向都变化较大的点,而我们定义的角点响应函数当点的像素值在水平和竖直方向都变化较大时,会大于预设阈值,从而认为是角点。本发明中,预设阈值通过实验测得。预设阈值的获取方法为:获取多帧输入图像,获得分别获得输入图像的已知角点,分别对每个已知角点进行角点响应函数计算,将所有角点响应函数计算值取平均获得角点平均值,将角点平均值作为预设阈值。
Forstner算子是精确定位角点坐标的方法,然后以中心点为基准,以窗口尺寸为依据,然后是获得窗口内的每个像素点的边缘直线,然后加权中心化,得到的中心点作为角点的精定位。
优选的,用KD树对关键点进行匹配的具体操作包括:用关键点随机生成M个不同结构的KD树;对每一个关键点同时搜索M个KD树,得到与该关键点最近邻的候选点,每个关键点与其最近邻的候选点形成一组匹配点对;然后基于队列对节点进行排序,按照节点与查询点之间的距离依次进行搜索。
KD树是对数据点在K维空间中划分的数据结构,即空间划分树,其输入是精定位角点的K维描述向量,具体生成过程参照经典的KD树算法。大致思想就是对这些K维描述向量所在的K维空间进行划分,这些搜索最近邻候选点时,就不用穷举法,只需要利用KD树作为数据索引,缩小搜索范围,提高效率。特征点已经生成了,随机KD树负责这些特征点间的匹配,从而生成匹配点对集合。
优选的,基于RANSAC算法消除无匹配点,包括以下操作:从KD树搜索获得的匹配点对中任意选取三组匹配点对作为当前匹配点对,计算获得匹配点对中关键点与其最近邻的候选点之间的变换关系;对剩余的匹配点对,利用关键点和变换关系计算获得该特征点的最邻近候选点位置,获得关键点与计算获得的最邻近候选点位置的距离;将关键点与计算获得的最邻近候选点位置的距离于预设的距离阈值比较,距离小于距离阈值的匹配点对作为内点对,距离大于距离阈值的匹配点对作为外点对,获得内点对集合,从内点对集合中任意选取三个匹配点对作为当前匹配点对,重复执行上述操作,直到迭代次数达到指定次数,选择内点对数量最多的集合为待求的匹配点对集合。
其实RANSAC算法可理解成是对最小二乘法的改进,思想就是通过一堆点,对其中的一部分进行随机取样,用随机取的点拟合一条直线,再看这一堆点中满足这条直线方程的点占多少比例,如果这个比例大于某个阈值,则最终以所取模型表征这一堆点的模型。
优选的,用待求的匹配点对集合进行相机参数估计和稀疏重建,从而获得稀疏点云,具体操作包括基于运动恢复结构算法估计场景的初始结构和相机运动;用优化算法对场景机构和相机矩阵参数进行优化和几何拟合,完成稀疏重建。优化目的是获得更好的重建效果,因为随着三维重建图像数量增加,累计误差会增大,所以要利用光束法平差算法减少累计误差
优化算法采用光束法平差算法消除稀疏重建的累积误差,
Figure BDA0002193069350000061
其中,xi,j是第i个点在第k张图片上的投影坐标min下面的x是优化参数,例如相机参数等;,f是代价函数,LI是损失函数。
优选的,将稀疏点云进行聚类,聚类后进行稠密重建获得稠密点云的具体操作包括:基于CMVS算法对稀疏点云进行聚类,对聚类后的稀疏点云基于PMVS算法完成稠密重建,获得稠密点云。
现有的图像匹配算法分为基于区域匹配的方法,基于变换域的方法和基于特征匹配的方法,基于特征的匹配方法对于光照和噪声的鲁棒性较高;基于特征的匹配方法以SIFT方法最为突出,SIFT方法具有尺度、旋转和光照不变性等,但SIFT算子在提取特征点时会在DOG尺度空间检测极值点,运算量大,复杂度较高,因此SIFT方法的时效性差。而Harris算法具有旋转和光照不变性,并且Harris算子运算简单,只用到一阶差分获取梯度信息,复杂度较低,实时性好,但是Harris算法不能保证尺度不变性。本发明通过构造高斯尺度空间,为Harris算子添加了尺度信息,并基于此获得尺度不变性的角点特征,然后再使用Forstner算子修正Harris算子所获得的角点位置,最后借鉴SIFT算子来描述精定位之后的角点主方向和产生角点描述向量;本方法兼顾了Harris算法的时效性和SIFT算子尺度、旋转和光照不变性的优点。
本发明的优点在于:1、利用多无人机协同拍摄同一个施工场景,提高了采样的时效性,缩短采样时间。2、对无人机获得的图像进行粗细筛选,从而获得清晰度高、鲁棒性好的图像数据,减少图像数据的处理总量。3、通过构造高斯尺度空间,为Harris算子添加了尺度信息,并基于此获得尺度不变性的角点特征,上述过程替换了SIFT算子的关键点定位步骤,Harris算子只用到一阶差分,运算比SIFT算子简单,因此,在提取尺度不变性的角点时,降低了运算量,提高了运算速度。4、采用Harris算子得出的角点作为Forstner算子的最佳窗口中心点,用Forstner算子对Harris算子提取的角点精定位,提高定位精度。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (9)

1.基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:该重构方法执行以下操作:利用多无人机同时对同一个目标施工场景进行拍摄,每架无人机在各自的任务区域内进行飞行拍摄;对每架无人机获得的视频进行筛选获取关键帧序列;基于高斯尺度空间定义多尺度Harris算子,用多尺度Harris算子计算获得尺度不变性的角点,基于Forstner算子对角点精定位;将精定位的角点作为关键点、参照SIFT方法对关键点进行描述,生成关键点描述向量;用KD树对关键点进行匹配,基于RANSAC剔除无匹配的关键点,剩余的关键点形成待求的匹配点对集合;用待求的匹配点对集合进行相机参数估计和稀疏重建获得稀疏点云;将稀疏点云进行聚类,聚类后进行稠密重建获得稠密点云,将稠密点云进行曲面拟合和纹理映射获得场景重构模型。
2.如权利要求1所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:筛选包括对清晰度的浅层筛选;做浅层筛选时,将无人机获得的视频图像序列看做是无参考图像的清晰度评价问题,采用Laplacian(拉普拉斯)梯度函数作为清晰度评价的梯度函数,Laplacian算子为:
Figure RE-FDA0002278226230000011
图像清晰度D(f),D(f)=∑yx|G(x,y)|,(G(x,y)>T),G(x,y)是坐标(x,y)处的Laplacian卷积。Laplacian梯度函数采用Laplacian算子计算梯度,图像清晰度D(f)采用Laplacian梯度函数来衡量图像清晰度;将图像清晰度D(f)小于清晰度阈值的帧图像去除。
3.如权利要求1所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:对浅层筛选获得的图像序列进行基于几何鲁棒信息准则和特征对应率的深层筛选,浅层筛选获得的图像序列任选两帧作为参考图像对,其余图像作为待匹配图像;深层筛选的原则包括:特征对应率Rc筛选和、或几何鲁邦信息准则GRIC筛选;
特征对应率Rc筛选为计算参考图像对与待匹配图像和参考图像的特征对应率Rc,筛选出符合特征对应率预设范围的图像序列;
几何鲁邦信息准则GRIC筛选为计算每一帧待匹配图像与参考图像的基础矩阵的GRIC值,每一帧待匹配图像与参考图像的单应矩阵的GRIC值,将单应矩阵的GRIC值小于基础矩阵的GRIC值的待匹配图像作为候选帧图像;符合特征对应率预设范围的候选帧图像作为深层筛选获得的图像序列。
4.如权利要求3所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:定义特征对应率Rc,
Figure RE-FDA0002278226230000012
其中,Tc为待匹配图像和任意一帧参考图像之间对应的特征点的数量,Tf为参考图像对之间对应的特征点的数量;几何鲁邦信息准则GRIC定义为:
Figure RE-FDA0002278226230000013
其中,d是模型维数,n是匹配的特征点数量,k是模型自由度,ρ为函数,ei为留数,μ1=ln(r)
μ2=ln(rn)
Figure RE-FDA0002278226230000014
其中,r为数据维度,d为模型维度,σ2为误差平方,μ3为限制留数的参数。
5.如权利要求1所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:利用Harris-SIFT算子进行图像特征点提取和定位包括以下操作:构建高斯尺度空间,一幅图像的高斯尺度空间表示为:L(x,y,σ)=G(x,y,σ)|(x,y);其中,G(x,y,σ)表示高斯核函数,I(x,y)表示坐标(x,y)处的像素灰度,σ={σ12,...,σi},σi表示第i个尺度、,Harris算子二阶矩表示为:(x,y)为图像的像素坐标,σi表示第i个尺度,gx,gy分别表示对图像使用高斯核函数在x或y方向取微分的结果;在每个尺度σi下分别对应有各自的角点响应函数CRF,
Figure RE-FDA0002278226230000022
其中,∈是极小量;以角点响应函数计算获得的角点作为Forstner算子的最佳窗口中心点,对最佳窗口内的每个像素的边缘直线进行加权中心化处理。
6.如权利要求1所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:用KD树对关键点进行匹配的具体操作包括:用关键点随机生成M个不同结构的KD树;对每一个关键点同时搜索M个KD树,得到与该关键点最近邻的候选点,每个关键点与其最近邻的候选点形成一组匹配点对;然后基于队列对节点进行排序,按照节点与查询点之间的距离依次进行搜索。
7.如权利要求1所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:基于RANSAC算法消除无匹配点,包括以下操作:从KD树搜索获得的匹配点对中任意选取三组匹配点对作为当前匹配点对,计算获得匹配点对中关键点与其最近邻的候选点之间的变换关系;对剩余的匹配点对,利用关键点和变换关系计算获得该特征点的最邻近候选点位置,获得关键点与计算获得的最邻近候选点位置的距离;将关键点与计算获得的最邻近候选点位置的距离于预设的距离阈值比较,距离小于距离阈值的匹配点对作为内点对,距离大于距离阈值的匹配点对作为外点对,获得内点对集合,从内点对集合中任意选取三个匹配点对作为当前匹配点对,重复执行上述操作,直到迭代次数达到指定次数,选择内点对数量最多的集合为待求的匹配点对集合。
8.如权利要求1所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:用待求的匹配点对集合进行相机参数估计和稀疏重建,从而获得稀疏点云,具体操作包括基于运动恢复结构算法估计场景的初始结构和相机运动;用优化算法对场景机构和相机矩阵参数进行优化和几何拟合,完成稀疏重建。优化目的是获得更好的重建效果,因为随着三维重建图像数量增加,累计误差会增大,所以要利用光束法平差算法减少累计误差。
9.如权利要求7所述的基于多无人机视觉协同的大型施工场景实时重构方法,其特征在于:优化算法采用光束法平差算法消除稀疏重建的累积误差,
Figure RE-FDA0002278226230000031
其中,xi,j是第i个点在第k张图片上的投影坐标min下面的x是优化参数,例如相机参数等;,f是代价函数,LI是损失函数。
CN201910838905.9A 2019-09-05 2019-09-05 基于多无人机视觉协同的大型施工场景实时重构方法 Pending CN110766782A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910838905.9A CN110766782A (zh) 2019-09-05 2019-09-05 基于多无人机视觉协同的大型施工场景实时重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910838905.9A CN110766782A (zh) 2019-09-05 2019-09-05 基于多无人机视觉协同的大型施工场景实时重构方法

Publications (1)

Publication Number Publication Date
CN110766782A true CN110766782A (zh) 2020-02-07

Family

ID=69330136

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910838905.9A Pending CN110766782A (zh) 2019-09-05 2019-09-05 基于多无人机视觉协同的大型施工场景实时重构方法

Country Status (1)

Country Link
CN (1) CN110766782A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101384A (zh) * 2020-09-17 2020-12-18 武汉大学 高精度航测的鲁棒图像稀疏匹配方法、存储介质及无人机
CN112149348A (zh) * 2020-09-18 2020-12-29 北京每日优鲜电子商务有限公司 一种基于无人货柜场景的仿真空间模型训练数据生成方法
CN112362068A (zh) * 2020-12-04 2021-02-12 浙江煤炭测绘院有限公司 一种无人机测绘方法、装置以及系统
CN113178005A (zh) * 2021-05-26 2021-07-27 国网河南省电力公司南阳供电公司 一种用于电力设备的高效拍照建模方法和装置
CN113470090A (zh) * 2021-07-23 2021-10-01 徐州中欧科技有限公司 基于sift-shot特征的多固态激光雷达外参标定方法
CN117197493A (zh) * 2023-08-24 2023-12-08 广州市易鸿智能装备股份有限公司 一种实现大规模数据清洗的方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039765A1 (en) * 2014-05-05 2017-02-09 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
CN109949399A (zh) * 2019-03-15 2019-06-28 西安因诺航空科技有限公司 一种基于无人机航拍图像的场景三维重建方法
CN109961497A (zh) * 2019-03-22 2019-07-02 刘文龙 基于无人机影像的实时三维重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039765A1 (en) * 2014-05-05 2017-02-09 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
CN109949399A (zh) * 2019-03-15 2019-06-28 西安因诺航空科技有限公司 一种基于无人机航拍图像的场景三维重建方法
CN109961497A (zh) * 2019-03-22 2019-07-02 刘文龙 基于无人机影像的实时三维重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
F. ALIDOOST 等: "AN IMAGE-BASED TECHNIQUE FOR 3D BUILDING RECONSTRUCTION USING MULTI-VIEW UAV IMAGES MULTI-VIEW UAV IMAGES", 《THE INTERNATIONAL ARCHIVES OF THE PHOTOGRAMMETRY, REMOTE SENSING AND SPATIAL INFORMATION SCIENCES》 *
王智勇: "基于无人机航拍图像序列的三维场景实时重建方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
许佳佳: "结合Harris与SIFT算子的图像快速配准算法", 《中国光学》 *
赵红泽 等: "无人机在露天矿山地形建模中的应用研究", 《露天采矿技术》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101384A (zh) * 2020-09-17 2020-12-18 武汉大学 高精度航测的鲁棒图像稀疏匹配方法、存储介质及无人机
CN112149348A (zh) * 2020-09-18 2020-12-29 北京每日优鲜电子商务有限公司 一种基于无人货柜场景的仿真空间模型训练数据生成方法
CN112362068A (zh) * 2020-12-04 2021-02-12 浙江煤炭测绘院有限公司 一种无人机测绘方法、装置以及系统
CN113178005A (zh) * 2021-05-26 2021-07-27 国网河南省电力公司南阳供电公司 一种用于电力设备的高效拍照建模方法和装置
CN113470090A (zh) * 2021-07-23 2021-10-01 徐州中欧科技有限公司 基于sift-shot特征的多固态激光雷达外参标定方法
CN117197493A (zh) * 2023-08-24 2023-12-08 广州市易鸿智能装备股份有限公司 一种实现大规模数据清洗的方法及系统

Similar Documents

Publication Publication Date Title
CN110766782A (zh) 基于多无人机视觉协同的大型施工场景实时重构方法
CN112070818B (zh) 基于机器视觉的机器人无序抓取方法和系统及存储介质
CN105574534B (zh) 基于稀疏子空间聚类和低秩表示的显著性目标检测方法
CN107247834B (zh) 一种基于图像识别的三维环境模型重构方法、设备及系统
CN107093205B (zh) 一种基于无人机图像的三维空间建筑物窗户检测重建方法
CN103325112B (zh) 动态场景中运动目标快速检测方法
CN111028292B (zh) 一种亚像素级图像匹配导航定位方法
CN108682027A (zh) 基于点、线特征融合的vSLAM实现方法及系统
CN110490158B (zh) 一种基于多级模型的鲁棒人脸对齐方法
CN107481274B (zh) 一种三维作物点云的鲁棒性重构方法
CN111524168B (zh) 点云数据的配准方法、系统、装置及计算机存储介质
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
CN109410248B (zh) 一种基于r-K算法的浮选泡沫运动特征提取方法
CN107610219B (zh) 三维场景重构中几何线索感知的像素级点云稠密化方法
CN115546116B (zh) 全覆盖式岩体不连续面提取与间距计算方法及系统
CN112785705A (zh) 一种位姿获取方法、装置及移动设备
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN107808391B (zh) 一种基于特征选择与光滑表示聚类的视频动态目标提取方法
CN113920254B (zh) 一种基于单目rgb的室内三维重建方法及其系统
CN103679740A (zh) 一种无人机对地目标roi提取方法
CN117292076A (zh) 工程机械局部作业场景动态三维重构方法及系统
Jisen A study on target recognition algorithm based on 3D point cloud and feature fusion
CN117576303A (zh) 三维图像生成方法、装置、设备及存储介质
CN116878524A (zh) 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200207