CN113095214A - 一种基于人工智能的无人机测绘光学防抖方法及系统 - Google Patents
一种基于人工智能的无人机测绘光学防抖方法及系统 Download PDFInfo
- Publication number
- CN113095214A CN113095214A CN202110381963.0A CN202110381963A CN113095214A CN 113095214 A CN113095214 A CN 113095214A CN 202110381963 A CN202110381963 A CN 202110381963A CN 113095214 A CN113095214 A CN 113095214A
- Authority
- CN
- China
- Prior art keywords
- straight line
- point cloud
- building
- jelly effect
- effect index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,具体涉及一种基于人工智能的无人机测绘光学防抖方法及系统。该方法包括:通过从建筑物三维点云中获取最能反映果冻效应的最优直线,并从RGB图像中获取最优直线对应的变形直线,根据最优直线的第一斜率和第一跨越行以及变形直线的第二斜率和第二跨越行得到果冻效应指标;根据果冻效应指标设置角度阈值和次数阈值,当预设时间段内的最大偏移角度大于角度阈值,且三轴偏移角从正值变成负值的变化次数大于次数阈值时,关闭光学防抖装置。该方法解决了光学防抖装置发生震动或超出镜组的移动行程,图像出现果冻效应,光学防抖装置失效的技术问题。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于人工智能的无人机测绘光学防抖方法及系统。
背景技术
使用无人机进行测绘时,为了得到清晰的图像经常使用卷帘快门。但由于无人机本身是具有高速运动能力的设备,且在拍摄作业的同时会有不同程度的不同频率的震动,使得卷帘快门拍出的图像中不同行的像素之间存在时间差,使得图像出现斜拉、扭曲、摇摆不定等现象。这种现象为果冻效应。
无人机搭载的相机有光学防抖装置,光学防抖装置中有可以移动的镜组,可根据IMU的示数调整镜组的位姿来补偿相机抖动对相机成像的影响。但当无人机共振过强时,使得光学防抖装置发生震动或超出镜组的移动行程,图像出现果冻效应,光学防抖装置失效。此时为了更好找到无人机IMU示数与图像果冻效应之间的关系,应将光学防抖装置关闭,避免产生影响。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种基于人工智能的无人机测绘光学防抖方法及系统,所采用的技术方案如下:
第一方面,本发明实施例提供了一种基于人工智能的无人机测绘光学防抖方法,该方法包括以下步骤:
采用激光雷达获取建筑物三维点云,同时采用具有卷帘快门的RGB相机获取RGB图像;
将所述建筑物三维点云转化为深度图像,对所述深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对所述深度图像进行检测获取第二直线集合,根据直线的斜率和直线的两个端点对所述第一直线集合和所述第二直线集合进行相互验证得到第三直线集合,根据直线到所述深度图像边界的距离与直线的跨越行的比值从所述第三直线集合中选择一条最优直线;
根据最优直线的两个端点从所述RGB图像中获取所述最优直线对应的变形直线;
根据所述最优直线的第一斜率和所述变形直线的第二斜率得到横向果冻效应指标,根据所述最优直线的第一跨越行和所述变形直线的第二跨越行得到纵向果冻效应指标,根据所述纵向果冻效应指标和所述横向果冻效应指标得到果冻效应指标;
根据所述果冻效应指标设置IMU示数中三轴偏移角中最大偏移角度的角度阈值和三轴偏移角从正值变成负值的变化次数的次数阈值,当预设时间段内的所述最大偏移角度大于所述角度阈值,且所述变化次数大于所述次数阈值时,关闭光学防抖装置。
进一步地,所述获取建筑物点云的步骤包括:
将激光雷达采集的城市三维点云均匀的划分为左、中、右三个部分,并采用聚类算法对左和右两部分的城市三维点云进行检测得到多个点云集合;
根据回波强度的均方差和回波次数从所述多个点云集合中获取第一建筑物点云集合;
根据连续多帧检测到的所述回波次数的平均变化率和所述回波强度的平均均方差从所述第一建筑物点云集合中获取第二建筑物点云集合;
根据所述第二建筑物点云集合中的最大纵坐标的值对所述第二建筑物点云集合进行筛选得到建筑物点云。
进一步地,所述端点包括直线的顶部关键点和底部关键点。
进一步地,所述获取第二直线集合的步骤包括:
将所述深度图像输入所述关键点检测网络得到建筑物的顶部关键点和关系亲和向量,设置滑窗沿着所述关系亲和向量的方向进行角点检测得到所述建筑物的底部关键点,将建筑物的顶部关键点和对应的底部关键点相连得到第二直线集合。
进一步地,所述果冻效应指标的公式为:
其中,WX为所述横向果冻效应指标,WY为所述纵向果冻效应指标,W为果冻效应指标,k1为所述第一斜率,N1为所述第一跨越行,k2为所述第一斜率,N2为所述第二跨越行。
第二方面,本发明实施例提供了一种基于人工智能的无人机测绘光学防抖系统,包括:
图像获取模块,用于采用激光雷达获取建筑物三维点云,同时采用具有卷帘快门的RGB相机获取RGB图像;
最优直线获取模块,用于将所述建筑物三维点云转化为深度图像,对所述深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对所述深度图像进行检测获取第二直线集合,根据直线的斜率和直线的两个端点对所述第一直线集合和所述第二直线集合进行相互验证得到第三直线集合,根据直线到所述深度图像边界的距离与直线的跨越行的比值从所述第三直线集合中选择一条最优直线;
变形直线获取模块,用于根据最优直线的两个端点从所述RGB图像中获取所述最优直线对应的变形直线;
果冻效应指标获取模块,用于根据所述最优直线的第一斜率和所述变形直线的第二斜率得到横向果冻效应指标,根据所述最优直线的第一跨越行和所述变形直线的第二跨越行得到纵向果冻效应指标,根据所述纵向果冻效应指标和所述横向果冻效应指标得到果冻效应指标;
防抖装置设置模块,用于根据所述果冻效应指标设置IMU示数中三轴偏移角中最大偏移角度的角度阈值和三轴偏移角从正值变成负值的变化次数的次数阈值,当预设时间段内的所述最大偏移角度大于所述角度阈值,且所述变化次数大于所述次数阈值时,关闭光学防抖装置。
进一步地,所述图像获取模块包括:
检测单元,用于将激光雷达采集的城市三维点云均匀的划分为左、中、右三个部分,并采用聚类算法对左和右两部分的城市三维点云进行检测得到多个点云集合;
第一建筑物点云集合获取单元,用于根据回波强度的均方差和回波次数从所述多个点云集合中获取第一建筑物点云集合;
第二建筑物点云集合获取单元,用于根据连续多帧检测到的所述回波次数的平均变化率和所述回波强度的平均均方差从所述第一建筑物点云集合中获取第二建筑物点云集合;
建筑物点云获取单元,用于根据所述第二建筑物点云集合中的最大纵坐标的值对所述第二建筑物点云集合进行筛选得到建筑物点云。
进一步地,所述端点包括直线的顶部关键点和底部关键点。
进一步地,所述最优直线获取模块包括:
第二直线集合获取单元,用于将所述深度图像输入所述关键点检测网络得到建筑物的顶部关键点和关系亲和向量,设置滑窗沿着所述关系亲和向量的方向进行角点检测得到所述建筑物的底部关键点,将建筑物的顶部关键点和对应的底部关键点相连得到第二直线集合。
进一步地,所述果冻效应指标的公式为:
其中,WX为所述横向果冻效应指标,WY为所述纵向果冻效应指标,W为果冻效应指标,k1为所述第一斜率,N1为所述第一跨越行,k2为所述第一斜率,N2为所述第二跨越行。
本发明实施例至少具有如下有益效果:
(1)本发明实施例通过从建筑物三维点云中获取最能反映果冻效应的最优直线,并从RGB图像中获取最优直线对应的变形直线,根据最优直线的第一斜率和第一跨越行以及变形直线的第二斜率和第二跨越行得到果冻效应指标;根据果冻效应指标设置角度阈值和次数阈值,当预设时间段内的最大偏移角度大于角度阈值,三轴偏移角从正值变成负值的变化次数大于次数阈值时,关闭光学防抖装置,解决了光学防抖装置发生震动或超出镜组的移动行程,图像出现果冻效应,光学防抖装置失效的技术问题。
(2)本发明实施例通过对深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对深度图像进行检测获取第二直线集合,根据斜率和直线的两个端点对第一直线集合和第二直线集合进行相互验证得到第三直线集合,根据直线的跨越行和到深度图像边界的距离从第三直线集合中选择一条最优直线。该方法选择了一条最能反映图像果冻效应的最优直线,使获取的果冻效应指标更加准确。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图;
图1为本发明一个实施例所提供的一种基于人工智能的无人机测绘光学防抖方法流程图;
图2为本发明一个实施例所提供的一种基于人工智能的无人机测绘光学防抖方法示意图;
图3为本发明一个实施例所提供的基于人工智能的无人机测绘光学防抖系统的结构框图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于人工智能的无人机测绘光学防抖方法及系统,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于人工智能的无人机测绘光学防抖方法及系统的具体方案。
请参阅图1和图2,图1示出了本发明一个实施例提供的一种基于人工智能的无人机测绘光学防抖方法流程图,图2示出了本发明一个实施例提供的一种基于人工智能的无人机测绘光学防抖方法示意图,该方法包括如下步骤:
S1:采用激光雷达获取建筑物三维点云,同时采用具有卷帘快门的RGB相机获取RGB图像;
S2:将建筑物三维点云转化为深度图像,对深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对深度图像进行检测获取第二直线集合,根据直线的斜率和直线的两个端点对第一直线集合和第二直线集合进行相互验证得到第三直线集合,根据直线到深度图像边界的距离与直线的跨越行的比值从第三直线集合中选择一条最优直线;
S3:根据最优直线的两个端点从RGB图像中获取最优直线对应的变形直线;
S4:根据最优直线的第一斜率和变形直线的第二斜率得到横向果冻效应指标,根据最优直线的第一跨越行和变形直线的第二跨越行得到纵向果冻效应指标,根据纵向果冻效应指标和横向果冻效应指标得到果冻效应指标;
S5:根据果冻效应指标设置IMU示数中三轴偏移角中最大偏移角度的角度阈值和三轴偏移角从正值变成负值的变化次数的次数阈值,当预设时间段内的最大偏移角度大于角度阈值,且变化次数大于次数阈值时,关闭光学防抖装置。
优选的,本实施例中步骤S1的具体步骤如下:
S101:采用激光雷达采集城市三维点云。
激光雷达和具有卷帘快门的RGB相机的视角一致,且确定后不再发生改变。
S102:将城市三维点云均匀的划分为左、中、右三个部分,并采用基于密度的聚类算法对左和右两部分的城市三维点云进行检测得到多个点云集合。
根据相机成像原理,位于图像中心区域的图像透视变换的效果较弱,建筑物的边缘线的斜率特征过大使得斜率变化不易被检测,对后续果冻效应的量化带来影响,所以本实施例中选用靠近图像边界的建筑物的边缘进行检测,提高量化指标的准确性。
S103:根据回波强度的均方差和回波次数从多个点云集合中筛选建筑物点云集合。
根据先验知识得,建筑物的回波次数通常为1,树木的回波次数通常大于1;建筑物的回波强度分布较为稳定,树木的回波强度分布较为分散。
本实施例中的回波强度为8bit,均方差阈值M1的取值为15。在其他实施例中,实施者可根据实际情况设置合适的回波强度和均方差阈值。
(3)对第二建筑物点云集合进行筛选得到建筑物点云集合:对第二建筑物点云集合中的最大纵坐标的值从大到小进行排序得到纵坐标序列,从纵坐标序列中选择纵坐标值最大的K1个纵坐标,K1个纵坐标对应的点云集合为建筑物点云集合。
本实施例中K1的值为5。在其他实施例中,实施者可根据实际情况选择K1的值。
优选的,本实施例中步骤S2的具体步骤如下:
S201:对深度图像进行霍夫直线检测得到建筑物边缘直线,对建筑物边缘直线进行筛选得到第一直线集合。
本实施例中的筛选过程为:将斜率k<0.5和k>20的建筑物边缘直线删除。k<0.5为建筑物中的水平直线,k>20为变化不明显的竖直直线。在其他实施例中,实施者可根据实际情况选择合适的直线斜率的范围。
S202:将深度图像输入基于亲和场的关键点检测网络得到建筑物的顶部关键点和关系亲和向量,设置滑窗沿着关系亲和向量的方向进行角点检测得到建筑物的底部关键点,将建筑物的顶部关键点和对应的底部关键点相连得到第二直线集合。
本实施例中基于亲和场的关键点检测网络采用多人姿态估计网络,多人姿态估计网络的训练过程如下:
(1)获取标签数据,标签数据包括关键点的标签数据和方向矢量的标签数据。具体步骤为:对样本图像训练集中的顶部关键点进行标注,并进行高斯核卷积得到关键点的标签数据;沿着建筑物的边缘线获取顶部关键点的方向矢量。
样本图像训练集为获取的多张建筑物的深度图像。
(2)采用交叉熵损失函数优化多人姿态估计网络的参数。
获取底部关键点的具体步骤为:采用5*5的滑窗沿着关系亲和向量进行角点检测,对滑窗检测到的角点信息进行标记,继续沿着该方向向量进行滑动,当检测到新的角点信息时,将上一个角点信息删除,直到滑窗滑动到深度图像的边界,得到顶部关键点对应的底部关键点。
通过步骤S203获取的顶部关键点与对应的底部关键点的直线的跨越行最多,保证了果冻效应指标的准确性。
S203:根据直线的斜率和直线的两个端点对第一直线集合和第二直线集合进行验证得到第三直线集合。两个端点为顶部关键点和其对应的底部关键点。
验证过程为:从第一直线集合中选择选择一条直线,根据直线得斜率进行KM匹配,在第二直线集合中匹配到斜率一致的直线,这样的直线集合为中间直线集合;判断第二直线集合中直线的两个端点是否在中间直线集合的直线上,若在,则为第三直线集合。
S204:从第三直线集合中选择一条最优直线。具体步骤如下:
(1)根据第三直线集合中每条直线的两个端点的纵坐标获取每条直线的跨越行N。
N=ytop-ybottom
其中,ytop为顶部关键点的纵坐标,ybottom为底部关键点的纵坐标。
(2)根据第三直线集合中每条直线的两个端点的横坐标判断直线在深度图像的左侧区域还是右侧区域,并计算每条直线到深度图像边界的距离M。
M=(xtop+xbottom)/2
其中,xtop为顶部关键点的横坐标,xbottom为底部关键点的横坐标,当直线位于左侧区域,M越小,直线到深度图像边界的距离越近;当直线位于右侧区域,M越大,直线到深度图像边界的距离越近。
(3)将每条直线的跨越行和到深度图像边界的距离输入直线筛选模型中得到最优直线。
直线筛选模型为:
其中,L为第四直线集合中的直线,left表示直线位于左侧区域,right表示直线位于右侧区域图像,w为深度图像的宽度,β为直线的置信度,取值范围为[0,1]。
置信度最大的一条直线为最优直线。
优选的,本实施例中步骤S3的具体步骤如下:
S301:将RGB图像和深度图像在像素上对齐,并从RGB图像中获取最优直线的顶部关键点和底部关键点对应的上端点和下端点的位置信息。
S302:分别对上端点的邻域和下端点的邻域进行角点检测得到变形直线的顶部端点和底部端点。
本实施例中的邻域为以上端点或下端点为中心,半径为3的圆形区域。在其他实施例中,实施者可根据情况选择邻域的大小。
S303:以顶部端点和底部端点的坐标获取ROI区域,并采用RANSAC剔除ROI区域内的干扰点,得到变形直线。
ROI区域的长为顶部端点与底部端点的纵坐标之差;宽为顶部端点与底部端点的横坐标之差;顶部端点和底部端点为ROI区域的对角顶点。
优选的,本实施例中步骤S4的具体步骤如下:
S401:获取最优直线的第一斜率k1和第一跨越行N1和变形直线的第一斜率k2和第二跨越行N2。
S402:获取果冻效应指标W。果冻效应指标W越大表示果冻效应越严重。
果冻效应指标W的公式为:
其中,WX为垂直于卷帘快门曝光方向的横向果冻效应指标,WY为平行于卷帘快门曝光方向的纵向果冻效应指标。
优选的,本实施例中步骤S5的具体步骤如下:
S501:设置果冻效应指标阈值W0。当果冻效应指标大于果冻效应指标阈值W0时,相机拍摄的RGB图像中的果冻效应不可忽略。
本实施例中的果冻效应指标阈值W0=3。在其他实施例中,实施者可根据实际情况设置合适的果冻效应指标阈值。
S502:设置角度阈值和次数阈值。
对果冻效应指标进行实时检测,当检测到的果冻效应指标大于果冻效应指标阈值时,记录预设时间段内的最大偏移角度αmax和变化次数Q,根据记录的最大偏移角度αmax和变化次数Q对角度阈值和次数阈值进行实时更新,角度阈值和次数阈值均为记录的最大偏移角度αmax和变化次数Q的最小值。若一定时间段内的角度阈值和次数阈值不发生变化,则获取最终的角度阈值和次数阈值。
本实施例中的预设时间段为1秒,即每一秒检测一次果冻效应指标,并获取这一秒内的最大偏移角度αmax和变化次数Q。在其他实施例中,实施者可根据实际情况选择预设时间段的长短。
本实施例中的一定时间段为5秒,即当5秒内的最小角度阈值和最小次数阈值不发生变化,则获取角度阈值和次数阈值。在其他实施例中,实施者可根据实际情况选择合适的时间段。
综上所述,本发明实施例通过从建筑物三维点云中获取最能反映果冻效应的最优直线,并从RGB图像中获取最优直线对应的变形直线,根据最优直线的第一斜率和第一跨越行以及变形直线的第二斜率和第二跨越行得到果冻效应指标;根据果冻效应指标设置角度阈值和次数阈值,当预设时间段内的最大偏移角度大于角度阈值,三轴偏移角从正值变成负值的变化次数大于次数阈值时,关闭光学防抖装置,解决了光学防抖装置发生震动或超出镜组的移动行程,图像出现果冻效应,光学防抖装置失效的技术问题。
基于与上述方法相同的发明构思,本发明实施例中还提供一种基于人工智能的无人机测绘光学防抖系统。
请参阅图3,具体的,本发明实施例中提供了一种基于人工智能的无人机测绘光学防抖系统100,包括图像获取模块10、最优直线获取模块20、变形直线获取模块30、果冻效应指标获取模块40和防抖装置设置模块50。
具体的,图像获取模块10用于采用激光雷达获取建筑物三维点云,同时采用具有卷帘快门的RGB相机获取RGB图像;
最优直线获取模块20用于将建筑物三维点云转化为深度图像,对深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对深度图像进行检测获取第二直线集合,根据直线的斜率和直线的两个端点对第一直线集合和第二直线集合进行相互验证得到第三直线集合,根据直线到深度图像边界的距离与直线的跨越行的比值从第三直线集合中选择一条最优直线;
变形直线获取模块30用于根据最优直线的两个端点从RGB图像中获取最优直线对应的变形直线;
果冻效应指标获取模块40用于根据最优直线的第一斜率和变形直线的第二斜率得到横向果冻效应指标,根据最优直线的第一跨越行和变形直线的第二跨越行得到纵向果冻效应指标,根据纵向果冻效应指标和横向果冻效应指标得到果冻效应指标;
防抖装置设置模块50用于根据果冻效应指标设置IMU示数中三轴偏移角中最大偏移角度的角度阈值和三轴偏移角从正值变成负值的变化次数的次数阈值,当预设时间段内的最大偏移角度大于角度阈值,且变化次数大于次数阈值时,关闭光学防抖装置。
进一步地,图像获取模块10包括:
检测单元,用于将激光雷达采集的城市三维点云均匀的划分为左、中、右三个部分,并采用聚类算法对左和右两部分的城市三维点云进行检测得到多个点云集合;
第一建筑物点云集合获取单元,用于根据回波强度的均方差和回波次数从多个点云集合中获取第一建筑物点云集合;
第二建筑物点云集合获取单元,用于根据连续多帧检测到的回波次数的平均变化率和回波强度的平均均方差从第一建筑物点云集合中获取第二建筑物点云集合;
建筑物点云获取单元,用于根据第二建筑物点云集合中的最大纵坐标的值对第二建筑物点云集合进行筛选得到建筑物点云。
进一步地,端点包括直线的顶部关键点和底部关键点。
进一步地,最优直线获取模块20包括:
第二直线集合获取单元,用于将深度图像输入关键点检测网络得到建筑物的顶部关键点和关系亲和向量,设置滑窗沿着关系亲和向量的方向进行角点检测得到建筑物的底部关键点,将建筑物的顶部关键点和对应的底部关键点相连得到第二直线集合。
进一步地,果冻效应指标的公式为:
其中,WX为横向果冻效应指标,WY为纵向果冻效应指标,W为果冻效应指标,k1为第一斜率,N1为第一跨越行,k2为第一斜率,N2为第二跨越行。
综上所述,本发明实施例通过图像获取模块10获取建筑物点云和RGB图像;通过最优直线获取模块20从建筑物点云中获取最优直线;通过变形直线获取模块30从RGB图像中获取最优直线对应的变形直线;果冻效应指标获取模块40根据最优直线的第一斜率和第一跨越行以及变形直线的第二斜率和第二跨越行得到果冻效应指标;通过防抖装置设置模块50设置的阈值关闭光学防抖装置。该系统解决了光学防抖装置发生震动或超出镜组的移动行程,图像出现果冻效应,光学防抖装置失效的技术问题。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的无人机测绘光学防抖方法,其特征在于,该方法包括以下步骤:
采用激光雷达获取建筑物三维点云,同时采用具有卷帘快门的RGB相机获取RGB图像;
将所述建筑物三维点云转化为所述深度图像,对所述深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对所述深度图像进行检测获取第二直线集合,根据直线的斜率和直线的两个端点对所述第一直线集合和所述第二直线集合进行相互验证得到第三直线集合,根据直线到所述深度图像边界的距离与直线的跨越行的比值从所述第三直线集合中选择一条最优直线;
根据最优直线的两个端点从所述RGB图像中获取所述最优直线对应的变形直线;
根据所述最优直线的第一斜率和所述变形直线的第二斜率得到横向果冻效应指标,根据所述最优直线的第一跨越行和所述变形直线的第二跨越行得到纵向果冻效应指标,根据所述纵向果冻效应指标和所述横向果冻效应指标得到果冻效应指标;
根据所述果冻效应指标设置IMU示数中三轴偏移角中最大偏移角度的角度阈值和三轴偏移角从正值变成负值的变化次数的次数阈值,当预设时间段内的所述最大偏移角度大于所述角度阈值,且所述变化次数大于所述次数阈值时,关闭光学防抖装置。
2.根据权利要求1所述的一种基于人工智能的无人机测绘光学防抖方法,其特征在于,所述获取建筑物点云的步骤包括:
将激光雷达采集的城市三维点云均匀的划分为左、中、右三个部分,并采用聚类算法对左和右两部分的城市三维点云进行检测得到多个点云集合;
根据回波强度的均方差和回波次数从所述多个点云集合中获取第一建筑物点云集合;
根据连续多帧检测到的所述回波次数的平均变化率和所述回波强度的平均均方差从所述第一建筑物点云集合中获取第二建筑物点云集合;
根据所述第二建筑物点云集合中的最大纵坐标的值对所述第二建筑物点云集合进行筛选得到建筑物点云。
3.根据权利要求1所述的一种基于人工智能的无人机测绘光学防抖方法,其特征在于,所述端点包括直线的顶部关键点和底部关键点。
4.根据权利要求1所述的一种基于人工智能的无人机测绘光学防抖方法,其特征在于,所述获取第二直线集合的步骤包括:
将所述深度图像输入所述关键点检测网络得到建筑物的顶部关键点和关系亲和向量,设置滑窗沿着所述关系亲和向量的方向进行角点检测得到所述建筑物的底部关键点,将建筑物的顶部关键点和对应的底部关键点相连得到第二直线集合。
6.一种基于人工智能的无人机测绘光学防抖系统,其特征在于,包括:
图像获取模块,用于采用激光雷达获取建筑物三维点云,同时采用具有卷帘快门的RGB相机获取RGB图像;
最优直线获取模块,用于将所述建筑物三维点云转化为深度图像,对所述深度图像进行直线检测得到第一直线集合,采用基于亲和场的关键点检测网络对所述深度图像进行检测获取第二直线集合,根据直线的斜率和直线的两个端点对所述第一直线集合和所述第二直线集合进行相互验证得到第三直线集合,根据直线到所述深度图像边界的距离与直线的跨越行的比值从所述第三直线集合中选择一条最优直线;
变形直线获取模块,用于根据最优直线的两个端点从所述RGB图像中获取所述最优直线对应的变形直线;
果冻效应指标获取模块,用于根据所述最优直线的第一斜率和所述变形直线的第二斜率得到横向果冻效应指标,根据所述最优直线的第一跨越行和所述变形直线的第二跨越行得到纵向果冻效应指标,根据所述纵向果冻效应指标和所述横向果冻效应指标得到果冻效应指标;
防抖装置设置模块,用于根据所述果冻效应指标设置IMU示数中三轴偏移角中最大偏移角度的角度阈值和三轴偏移角从正值变成负值的变化次数的次数阈值,当预设时间段内的所述最大偏移角度大于所述角度阈值,且所述变化次数大于所述次数阈值时,关闭光学防抖装置。
7.根据权利要求6所述的一种基于人工智能的无人机测绘光学防抖系统,其特征在于,所述图像获取模块包括:
检测单元,用于将激光雷达采集的城市三维点云均匀的划分为左、中、右三个部分,并采用聚类算法对左和右两部分的城市三维点云进行检测得到多个点云集合;
第一建筑物点云集合获取单元,用于根据回波强度的均方差和回波次数从所述多个点云集合中获取第一建筑物点云集合;
第二建筑物点云集合获取单元,用于根据连续多帧检测到的所述回波次数的平均变化率和所述回波强度的平均均方差从所述第一建筑物点云集合中获取第二建筑物点云集合;
建筑物点云获取单元,用于根据所述第二建筑物点云集合中的最大纵坐标的值对所述第二建筑物点云集合进行筛选得到建筑物点云。
8.根据权利要求6所述的一种基于人工智能的无人机测绘光学防抖系统,其特征在于,所述端点包括直线的顶部关键点和底部关键点。
9.根据权利要求8所述的一种基于人工智能的无人机测绘光学防抖系统,其特征在于,所述最优直线获取模块包括:
第二直线集合获取单元,用于将所述深度图像输入所述关键点检测网络得到建筑物的顶部关键点和关系亲和向量,设置滑窗沿着所述关系亲和向量的方向进行角点检测得到所述建筑物的底部关键点,将建筑物的顶部关键点和对应的底部关键点相连得到第二直线集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110381963.0A CN113095214A (zh) | 2021-04-09 | 2021-04-09 | 一种基于人工智能的无人机测绘光学防抖方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110381963.0A CN113095214A (zh) | 2021-04-09 | 2021-04-09 | 一种基于人工智能的无人机测绘光学防抖方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113095214A true CN113095214A (zh) | 2021-07-09 |
Family
ID=76675632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110381963.0A Withdrawn CN113095214A (zh) | 2021-04-09 | 2021-04-09 | 一种基于人工智能的无人机测绘光学防抖方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113095214A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116055881A (zh) * | 2022-07-15 | 2023-05-02 | 荣耀终端有限公司 | 一种光学防抖模块的控制方法及相关装置 |
-
2021
- 2021-04-09 CN CN202110381963.0A patent/CN113095214A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116055881A (zh) * | 2022-07-15 | 2023-05-02 | 荣耀终端有限公司 | 一种光学防抖模块的控制方法及相关装置 |
CN116055881B (zh) * | 2022-07-15 | 2023-11-24 | 荣耀终端有限公司 | 一种光学防抖模块的控制方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN110221603B (zh) | 一种基于激光雷达多帧点云融合的远距离障碍物检测方法 | |
CN110349207B (zh) | 一种复杂环境下的视觉定位方法 | |
CN110889829B (zh) | 一种基于鱼眼镜头的单目测距方法 | |
WO2017054314A1 (zh) | 一种建筑物高度计算方法、装置和存储介质 | |
CN107506711A (zh) | 基于卷积神经网络的双目视觉障碍物检测系统及方法 | |
CN110866871A (zh) | 文本图像矫正方法、装置、计算机设备及存储介质 | |
CN108171715B (zh) | 一种图像分割方法及装置 | |
CN109961417B (zh) | 图像处理方法、装置及移动装置控制方法 | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN109376641B (zh) | 一种基于无人机航拍视频的运动车辆检测方法 | |
CN109544635B (zh) | 一种基于枚举试探的相机自动标定方法 | |
CN110533686A (zh) | 线阵相机行频与物体运动速度是否匹配的判断方法及系统 | |
CN108416798B (zh) | 一种基于光流的车辆距离估计方法 | |
CN110619328A (zh) | 基于图像处理和深度学习的船舶水尺读数智能识别方法 | |
CN111046843A (zh) | 一种智能驾驶环境下的单目测距方法 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
CN111738071B (zh) | 一种基于单目摄像机的运动变化的逆透视变换方法 | |
CN111652790A (zh) | 一种亚像素图像配准方法 | |
CN111753693B (zh) | 一种静态场景下目标检测方法 | |
CN117078717A (zh) | 基于无人机单目相机的道路车辆轨迹提取方法 | |
CN109544584B (zh) | 一种实现巡检稳像精度测量的方法及系统 | |
CN113095214A (zh) | 一种基于人工智能的无人机测绘光学防抖方法及系统 | |
CN113034398A (zh) | 基于人工智能的城市测绘果冻效应消除方法与系统 | |
CN116758421A (zh) | 一种基于弱监督学习的遥感图像有向目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210709 |
|
WW01 | Invention patent application withdrawn after publication |