CN114677859A - 无人机航线自动校正方法和装置 - Google Patents
无人机航线自动校正方法和装置 Download PDFInfo
- Publication number
- CN114677859A CN114677859A CN202210292932.2A CN202210292932A CN114677859A CN 114677859 A CN114677859 A CN 114677859A CN 202210292932 A CN202210292932 A CN 202210292932A CN 114677859 A CN114677859 A CN 114677859A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- route
- unmanned aerial
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
- G08G5/0039—Modification of a flight plan
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种无人机航线自动校正方法和装置,在基于获取的规划航线飞行的过程中,获得摄像设备在各个航拍点按预设的云台角度拍摄得到的图像。利用预先训练得到的识别模型得到各张图像中目标对象的定位信息,并基于定位信息判定云台超限时,对拍摄图像时的航拍点进行校正,进而基于校正后的航拍点对规划航线进行校正得到更新航线。本方案中,采用预先训练得到识别模型的方式,可以对规划航线中各个航拍点的图像进行识别检测,进而自动修正航线,避免了人工识别调整所存在的效率低下的问题。
Description
技术领域
本申请涉及无人机技术领域,具体而言,涉及一种无人机航线自动校正方法和装置。
背景技术
当前,无人驾驶软件和云台之间通过数据通讯,实现了无人机在规划的航行任务中,云台根据所设置的航拍点并按预设的俯仰角度自动进行拍摄,将拍摄到的图像数据进行下一步应用处理。但航线验证过程中可能存在航拍点云台超限的现象,目前通常的处理方式是,在航线验证阶段通过逐点人工编辑来调整云台角度,避免无效航拍点。现有技术中,缺少一种自动计算调整角度的方法,来有效避免云台旋转角度超限带来的对云台的破坏。
发明内容
本申请的目的包括,例如,提供了一种无人机航线自动校正方法和装置,其能够自动修正航线,避免了人工识别调整所存在的效率低下的问题。
本申请的实施例可以这样实现:
第一方面,本申请提供一种无人机航线自动校正方法,应用于搭载有摄像设备的无人机,所述摄像设备搭载于云台上,所述方法包括:
获取规划航线,所述规划航线包括多个航拍点,各所述航拍点对应有预设的云台角度;
在所述无人机基于所述规划航线飞行的过程中,获得所述摄像设备在各个航拍点按照预设的云台角度拍摄得到的图像;
将各张图像导入预先训练得到的识别模型中,在所述识别模型输出结果表征所述图像中包括目标对象时,获得所述目标对象的定位信息;
基于所述目标对象的定位信息判断所述摄像设备拍摄所述图像时所述云台是否处于超限状态,若处于超限状态,则对拍摄所述图像时的航拍点进行校正;
基于校正后的航拍点对规划航线进行校正,得到更新航线。
在可选的实施方式中,所述无人机还配置有激光设备;
所述获取规划航线的步骤,包括:
获取所述激光设备采集的目标对象的三维点云数据;
结合所述摄像设备采集的目标对象的图像信息及所述三维点云数据,构建三维点云模型;
根据所述三维点云模型及选择的巡检模式,自动生成多个航拍点,基于所述多个航拍点获得规划航线。
在可选的实施方式中,所述方法还包括预先基于深度残差网络模型构建识别模型的步骤,所述深度残差网络模型包括残差子网络、注意力机制子网络和分类器;
所述步骤包括:
采集多张样本图像,各所述样本图像中具有目标对象,各所述样本图像携带有目标对象的定位标签和分类标签;
将各所述样本图像导入所述深度残差网络模型中的残差子网络,输出各所述样本图像的特征图;
将所述特征图导入所述注意力机制子网络进行空间位置定位处理及冗余信息去除处理,输出各所述特征图中目标对象的定位信息以及冗余处理后的各特征图;
将冗余处理后的各特征图导入所述分类器中,输出各所述特征图中的目标对象的分类信息;
基于各所述样本图像的定位标签、分类标签、定位信息和分类信息,对所述深度残差网络模型进行调整后继续训练,直至满足预设要求时得到所述识别模型。
在可选的实施方式中,所述残差子网络包括多个残差模块,每个残差模块包括多层残差学习单元及非线性变化层;
所述将各所述样本图像导入所述深度残差网络模型中的残差子网络,输出各所述样本图像的特征图的步骤,包括:
针对各所述样本图像,将所述样本图像导入所述深度残差网络模型中,依次利用各个残差模块中的各层残差学习单元对所述样本图像进行处理得到特征图;
利用所述非线性变化层并基于预设阈值对特征图进行收缩处理。
在可选的实施方式中,所述利用所述非线性变化层并基于预设阈值对特征图进行收缩处理的步骤,包括:
针对导入所述非线性变化层中的各所述特征图,将所述特征图中特征值的绝对值小于或等于预设阈值的通道的特征值置于0,将所述特征图中特征值的绝对值大于所述预设阈值的通道的特征值向0的方向进行收缩。
在可选的实施方式中,所述非线性变化层包括依次连接的全局平均池化层、第一全连接层、第二全连接层;
所述预设阈值通过以下方式获得:
利用所述全局平均池化层对导入的特征图进行全局平均池化处理,得到一维特征向量;
利用所述第一全连接层和第二全连接层对所述一维特征向量进行处理,并对处理结果进行归一化得到缩放参数;
根据所述缩放参数和所述全局平均池化层输出的一维特征向量,计算得到所述预设阈值。
在可选的实施方式中,所述注意力机制子网络包括通道注意力模块和空间注意力模块;
所述将所述特征图导入所述注意力机制子网络进行空间位置定位处理及冗余信息去除处理的步骤,包括:
将所述特征图输入到所述通道注意力模块,以抑制所述特征图中的噪声信息,去除冗余信息;
将所述特征图分别再输入所述通道注意力模块和所述空间注意力模块进行处理,将处理结果再一并导入到空间注意力模块,结合该空间注意力模块的输出结果和输入的特征进行残差结合处理,基于残差结合处理结果得到空间位置定位信息。
在可选的实施方式中,所述方法还包括测试所述识别模型的步骤,该步骤包括:
采集多张测试图像,各所述测试图像中具有目标对象,各所述测试图像携带有目标对象的真实定位信息和真实分类信息;
将各张测试图像导入所述识别模型中,输出各张测试图像的输出定位信息和输出分类信息;
基于多张测试图像的真实定位信息、真实分类信息、输出定位信息和输出分类信息,计算得到所述识别模型的识别准确率。
在可选的实施方式中,所述对拍摄所述图像时的航拍点进行校正的步骤,包括:
基于在所述航拍点拍摄的图像中目标对象的定位信息,计算新的航拍距离和拍摄角度;
根据所述航拍距离和拍摄角度所述航拍点进行校正。
第二方面,本申请提供一种无人机航线自动校正装置,应用于搭载有摄像设备的无人机,所述摄像设备搭载于云台上,所述装置包括:
获取模块,用于获取规划航线,所述规划航线包括多个航拍点,各所述航拍点对应有预设的云台角度;
获得模块,用于在所述无人机基于所述规划航线飞行的过程中,获得所述摄像设备在各个航拍点按照预设的云台角度拍摄得到的图像;
识别模块,用于将各张图像导入预先训练得到的识别模型中,在所述识别模型输出结果表征所述图像中包括目标对象时,获得所述目标对象的定位信息;
第一校正模块,用于基于所述目标对象的定位信息判断所述摄像设备拍摄所述图像时所述云台是否处于超限状态,若处于超限状态,则对拍摄所述图像时的航拍点进行校正;
第二校正模块,用于基于校正后的航拍点对规划航线进行校正,得到更新航线。
本申请实施例的有益效果包括,例如:
本申请提供一种无人机航线自动校正方法和装置,在基于获取的规划航线飞行的过程中,获得摄像设备在各个航拍点按预设的云台角度拍摄得到的图像。利用预先训练得到的识别模型得到各张图像中目标对象的定位信息,并基于定位信息判定云台超限时,对拍摄图像时的航拍点进行校正,进而基于校正后的航拍点对规划航线进行校正得到更新航线。本方案中,采用预先训练得到识别模型的方式,可以对规划航线中各个航拍点的图像进行识别检测,进而自动修正航线,避免了人工识别调整所存在的效率低下的问题。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的无人机航线自动校正方法的流程图;
图2为本申请中航拍点校正前后采集的图像示意图;
图3为本申请实施例提供的无人机航线自动校正方法中,规划航线获取方法的流程图;
图4为本申请实施例提供的无人机航线自动校正方法中,识别模型训练方法的流程图;
图5为本申请实施例提供的深度残差网络模型的结构示意图;
图6为图4中步骤S202的子步骤的流程图;
图7为本申请实施例提供的残差子网络的结构示意图;
图8为本申请实施例提供的残差模块的结构示意图;
图9为图6中步骤S2022的子步骤的流程图;
图10为本申请实施例提供的残差模块的另一结构示意图;
图11为图4中步骤S203的子步骤的流程图;
图12为本申请实施例提供的注意力机制子网络的结构示意图;
图13为本申请实施例提供的无人机航线自动校正方法中,测试方法的流程图;
图14为本申请实施例提供的电子设备的结构框图;
图15为本申请实施例提供的无人机航线自动校正装置的功能模块框图。
图标:110-存储介质;120-处理器;130-无人机航线自动校正装置;131-获取模块;132-获得模块;133-识别模块;134-第一校正模块;135-第二校正模块;140-通信接口。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本申请的描述中,需要说明的是,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在不冲突的情况下,本申请的实施例中的特征可以相互结合。
请参阅图1,为本申请实施例提供的无人机航线自动校正方法的流程图,该无人机航线自动校正方法有关的流程所定义的方法步骤可以由无人机所实现,例如,由无人机上的处理设备来实现。或者,该无人机航线自动校正方法也可以由与无人机通讯的上位机来实现。下面将对图1所示的具体流程进行详细阐述。
S301,获取规划航线,所述规划航线包括多个航拍点,各所述航拍点对应有预设的云台角度。
S302,在所述无人机基于所述规划航线飞行的过程中,获得所述摄像设备在各个航拍点按照预设的云台角度拍摄得到的图像。
S303,将各张图像导入预先训练得到的识别模型中,在所述识别模型输出结果表征所述图像中包括目标对象时,获得所述目标对象的定位信息。
S304,基于所述目标对象的定位信息判断所述摄像设备拍摄所述图像时所述云台是否处于超限状态,若处于超限状态,则对拍摄所述图像时的航拍点进行校正。
S105,基于校正后的航拍点对规划航线进行校正,得到更新航线。
本实施例中,获取的规划航线可以是预先基于无人机航测过程中,所获取的所需监测的目标对象的信息所初步规划得到的。其中,所述的目标对象可以是所需拍摄的任意对象,例如杆塔、导线、变压器、绝缘子、横担、刀闸等。
该规划航线上包括多个航拍点,所谓的航拍点即为可采用无人机上的摄像设备进行图像拍摄的点。
预先得到的规划航线中,各个航拍点对应有预设的云台角度,其中,云台为无人机上搭载摄像设备的支撑装置,云台可以调整摄像设备的水平和俯仰角度,从而达到良好的工作姿态。云台角度上限是其俯仰角度的上限,其主要影响因素是无人机机动性能、飞行高度和气候状况等,其中,气候状况包括风向、风力等。
由于预先规划的航拍点以及其对应的云台角度,仅为简单地基于目标对象的信息所规划得到,由于实际巡检中外部因素的变化,例如无人机机动性能、气候状况等,导致按照规划的航拍点进行航测时,可能存在一些无效的航拍点,也即,航拍点对应的云台处于超限的状态。
因此,有必要在无人机实际巡检过程中,对航拍点进行校正进而对航线进行校正。
本实施例中,在实际巡检过程中,无人机可按规划航线飞行,并且在规划航线的各个航拍点按照该航拍点对应的预设的云台角度进行拍摄,得到图像。
本实施例中,还可预先训练得到识别模型,该识别模型可预先基于样本图像并在深度残差网络模型的基础上训练得到。可将无人机按规划航线飞行时拍摄的各张图像导入识别模型中进行识别处理,识别模型可对图像中的目标对象进行识别,并且获得目标对象在图像中的定位信息。
针对各张图像,在识别模型识别出其中包含目标对象时,可框出图像中的目标对象,例如可采用最小外接框框定出目标对象。并且,取框的中心点作为目标对象的定位信息。
基于目标对象在图像中的定位信息判断此时云台是否处于超限状态,例如,目标对象处于图像边缘位置、目标对象在图像中未能显示完整等,都可能导致云台发生超限。
若是预测云台发生超限,则可以对拍摄图像时的航拍点进行校正,包括如航拍点的空间坐标、对应云台的角度、摄像设备的拍摄角度等。从而保障在校正后的航拍点进行目标对象的拍摄时,云台将不会出现超限的问题。
本实施例中,可以基于航拍点拍摄的图像中目标对象的定位信息,计算新的航拍距离和拍摄角度,根据计算得到的航拍距离和拍摄角度对航拍点进行校正。
如图2中所示,其中,右侧的图像为云台可能出现超限状态时所拍摄的图像,左侧的图像为对对应航拍点进行校正后所拍摄的图像。
在对规划航线中的每个航拍点按照上述方式进行校正后,基于校正后的航拍点可对整个规划航线进行校正,得到更新航线。
本实施例所提供的无人机航线自动校正方法,采用预先训练得到识别模型的方式,可以基于识别模型对规划航线中的各个航拍点的图像进行识别检测,进而自动修正航线,避免了人工识别调整所存在的效率低下的问题。
本实施例中,无人机上还配置有激光设备,该激光设备为激光雷达设备。上述的预先初步设置的规划路线可以由无人机上的激光设备和摄像设备采集的信息所规划得到。请参阅图3,本实施例中,预先可以通过以下方式获取规划航线:
S101,获取所述激光设备采集的目标对象的三维点云数据。
S102,结合所述摄像设备采集的目标对象的图像信息及所述三维点云数据,构建三维点云模型。
S103,根据所述三维点云模型及选择的巡检模式,自动生成多个航拍点,基于所述多个航拍点获得规划航线。
本实施例中,无人机预先可以在飞行的过程中采用激光设备进行探测,并基于目标对象所返回的激光信号,以建立目标对象的三维点云数据。该三维点云数据中包含有目标对象的三维坐标信息。同时,利用无人机上的摄像设备进行图像拍摄,采集目标对象的图像信息。目标对象的图像信息可用于对目标对象的类别进行标记。
利用目标对象的图像信息可对三维点云数据进行色彩和纹理信息的添加,从而构建三维点云模型。该三维点云模型体现了空间内目标对象的三维坐标信息以及各个目标对象的类别。
根据所需的巡检模式,例如包括针对杆塔、输电线路、变电站等的巡检模式,结合具体的巡检部件,例如绝缘子Ⅰ串、Ⅴ串等,以及上述生成的三维点云模型,则可以设置多个航拍点以用于后续在飞行过程中可以在各个航拍点进行目标对象的拍摄进而实现巡检。其中,各个航拍点对应有云台角度,也即,在航拍点采用对应的云台角度进行拍摄,此外,还具有航拍点的空间坐标、拍摄角度、与目标对象之间的距离等。
在设置各个航拍点后,可依次为各个航拍点设置编号,如此,则可以得到由各个航拍点按序构建的规划航线。
在上述基础上,无人机后续在飞行过程中,则可以先按照该规划航线进行飞行,并在各个航拍点进行目标对象的拍摄。利用预先训练得到的识别模型来检测目标对象,并对目标对象进行定位,进而在判定某个航拍点处存在云台超限时,对该航拍点进行校正。
本实施例所提供的自动校正方法还包括预先基于深度残差网络模型构建识别模型的步骤,其中,深度残差网络模型包括残差子网络、注意力机制子网络和分类器。请结合参阅图4,本实施例中,可通过以下方式预先训练得到识别模型:
S201,采集多张样本图像,各所述样本图像中具有目标对象,各所述样本图像携带有目标对象的定位标签和分类标签。
S202,将各所述样本图像导入所述深度残差网络模型中的残差子网络,输出各所述样本图像的特征图。
S203,将所述特征图导入所述注意力机制子网络进行空间位置定位处理及冗余信息去除处理,输出各所述特征图中目标对象的定位信息以及冗余处理后的各特征图。
S204,将冗余处理后的各特征图导入所述分类器中,输出各所述特征图中的目标对象的分类信息。
S205,基于各所述样本图像的定位标签、分类标签、定位信息和分类信息,对所述深度残差网络模型进行调整后继续训练,直至满足预设要求时得到所述识别模型。
本实施例中,预先可以利用无人机自动巡检航拍所采集的包含目标对象的图像作为样本图像。样本图像可为多张,可以在不同角度、不同距离和不同时间段内采集多张样本图像,保障样本的多样性。每张样本图像具有样本标签,样本标签可以由具备电力专业知识的人员进行标记。样本标签包括其中的目标对象的分类标签和定位标签。
针对各张样本图像,可首先采用双边滤波处理方式对样本图像进行去噪处理,以避免噪声的影响。
请结合参阅图5,各张样本图像可导入残差子网络中,残差子网络对样本图像进行特征提取,输出各样本图像的特征图。各特征图进入注意力机制子网络中进行处理,注意力机制子网络可以实现对特征图中冗余信息的去除,从而保留下满足分类所需的特征图。此外,注意力机制子网络可对特征图中目标对象进行空间位置定位,得到目标对象的定位信息。
经过冗余信息去除处理的特征图导入到分类器中,经由分类器的处理后,输出其中的目标对象的分类信息,例如绝缘子、变压器、横担等。
对于深度残差网络模型的训练过程,实质为使其对样本图像的输出结果与样本图像的真实标签尽可能相同的过程。也即,输出结果与真实标签的误差尽可能小。因此,本实施例中,可以基于样本图像的定位标签、分类标签、定位信息和分类信息,来对深度残差网络模型进行调整。例如,可以基于定位标签、分类标签、定位信息和分类信息构建输入和输出之间误差的损失函数,通过最小化损失函数作为指导,以调整深度残差网络模型的模型参数,并继续进行训练。直至满足预设要求时,可得到识别模型。
其中,所述的预设要求可以是损失函数达到收敛不再降低,或者是迭代训练的次数达到预设的最大次数,或者是迭代训练的时长达到预设的最大时长等。
对于传统的深度学习网络,直观的认知是网络层数越多,生成的模型参数越多,非线性表达能力越强,因此网络可以进行更加复杂的特征提取。在克服梯度消失和梯度爆炸的前提下,所能学习到的特征就越多。然而经过试验发现,传统的CNN(ConvolutionalNeural Networks,卷积神经网络)网络结构随着层数加深到一定程度,准确率达到饱和之后,更深的网络反而提升了训练错误率和测试错误率,这种问题称之为网络退化问题。
而本实施例中,深度残差学习是解决网络退化问题非常有效的方法,该方法并不直接使用几层网络拟合出所期望的实际映射关系,而是拟合一个残差映射,这种方式使得输出变化对权重的调整作用更大,因而训练起来更加容易。
在本实施例中,残差子网络包括多个残差模块,每个残差模块包括多层残差学习单元以及非线性变化层。请参阅图6,上述利用残差子网络对样本图像进行处理的过程中,可以通过以下方式实现:
S2021,针对各所述样本图像,将所述样本图像导入所述深度残差网络模型中,依次利用各个残差模块中的各层残差学习单元对所述样本图像进行处理得到特征图。
S2022,利用所述非线性变化层并基于预设阈值对特征图进行收缩处理。
本实施例中,残差子网络包括多个残差模块,例如可以采用Res Net-50,以构建多层的深度残差网络,并在每个残差模块中插入软阈值学习子网络,也即非线性变化层,通过自动学习的软阈值对残差模块的输出进行收缩,达到去除噪声的目的。
请参阅图7,本实施例中,残差子网络可以包括如3个输出256个特征图的残差模块、4个输出512个特征图的残差模块、6个输出1024个特征图的残差模块、3个输出2048个特征图的残差模块。
其中,在每个残差模块中,可以包括三层残差学习单元,第一层为1×1的卷积层、第二层为3×3的卷积层、第三层为1×1的卷积层。在中间3×3卷积层前后使用1×1的卷积层,目的是为了降维,减少计算量。
对于输出特征图大小相同的层,有相同数量的卷积核,当特征图尺寸减半时,则需要增加一倍过滤器数量来保持各层的时间复杂度。
请结合参阅图8,对于每个残差模块中的三层残差学习单元,其中,用H(x)表示通过若干堆叠的残差学习单元得到的实际映射,x表示导入到这些残差学习单元的初始输入,堆叠的残差学习单元可以逐渐逼近输入与输出的残差,即H(x)-x。堆叠的残差学习单元拟合H(x)等价于去拟合残差函数F(x)=H(x)-x,而拟合残差函数会更为方便和高效。
公式F(x)+x通过添加短路连接实现,短路连接是指一种跳过一个或多个层次的连接,并没有引入新的参数,也没有增加计算复杂度。是通过多层残差学习单元的输入x与多层残差学习单元的输出F(x)进行相加而得到。
如图8中所示,y表示残差模块中多层残差学习单元的输出向量,x表示残差模块的输入向量,在F与x维度相同的条件下,y可以定义为:
y=F(x,{Wi})+x
其中,函数F(x,{Wi})表示学习到的残差映射。
如果F与x的维度不相同,无法直接进行运算,则需要在短路连接上作一个线性投影,使用矩阵Ws来解决维度匹配的问题,公式为:
y=F(x,{Wi})+Wsx
对于如图8中所示的三层网络,F函数的公式可表示为:
F=W3σ(W2σ(W1x))
其中,σ表示ReLU激活函数,W1-W3为权重值,为了简化公式省略了偏置项。
在每个残差模块中,通过如上所述的多个残差单元对样本图像进行处理,可以得到样本图像的特征图。而无人机的航拍图像中只有具有适合角度和亮度的目标对象的图像模型才可进行准确识别。而其他的不具有适合角度和亮度的图像,或者是图像中的部分区域将形成噪声。因此,如何去除噪声和冗余数据成为影响模型性能的一个重要问题。
本实施例中,在深度残差网络的基础上,加入了收缩的概念,通过设置软阈值的方式来实现特征图的收缩,从而达到对噪声和冗余数据的去除。具体地,本实施例中,在每个残差模块中插入了非线性变化层,在多层残差学习单元得到特征图的基础上,利用非线性变化层并基于预设阈值对特征图进行收缩处理。
本实施例中,利用非线性变化层对各特征图进行收缩处理时,具体地,针对导入非线性变化层中的各特征图,将特征图中特征值的绝对值小于或等于预设阈值的通道的特征值置为0,将特征图中特征值的绝对值大于预设阈值的通道的特征值向0的方向进行收缩。
相应的收缩公式可如下所示:
其中,x表示输入非线性变化层的输入特征,y表示输出特征,t为预设阈值,该预设阈值为正数。由上述公式可知,对于特征图中特征值的绝对值大于预设阈值的通道的特征值,其中,若特征值为正数,则将其向0收缩的方式为利用特征值减去预设阈值。而若特征值为负数,则将其向0收缩的方式为利用特征值加上预设阈值。
如此,按上述方式进行处理后,绝对值小于或等于预设阈值的特征值将被置为0,而绝对值大于预设阈值的特征值将向以0为中心进行收缩。本实施例中,该预设阈值为一正数,而并非如ReLU激活函数所采用的直接将负值设置为0。本实施例中,将绝对值小于或等于预设阈值的特征值置为0,可以保留有用的负值特征。
传统方式中,设置软阈值的方式一般是业务领域中的专家根据专业知识通过不断地调试进行设置。这种方式不具备学习能力,缺乏可扩展性,不具备适用性。
基于上述考虑,在本实施例中,非线性变化层包括依次连接的全局平均池化层、第一全连接层、第二全连接层,请参阅图9,上述的预设阈值可通过以下方式来确定:
S20221,利用所述全局平均池化层对导入的特征图进行全局平均池化处理,得到一维特征向量。
S20222,利用所述第一全连接层和第二全连接层对所述一维特征向量进行处理,并对处理结果进行归一化得到缩放参数。
S20223,根据所述缩放参数和所述全局平均池化层输出的一维特征向量,计算得到所述预设阈值。
请结合参阅图10,针对每个残差模块,图像在多层残差学习单元处理,例如图中的1×1的卷积层、3×3的卷积层、1×1的卷积层。最后一层残差学习单元所输出的特征图,导入非线性变化层中的全局平均池化层(GAP),经过全局平均池化处理后,得到与上一层卷积核数量相同的一维向量。将该一维向量输入到第一全连接层(FC)、第二全连接层(FC)中,并结合两层全连接层末端的sigmoid函数,得到处理结果。再按照如下所示的公式对处理结果进行归一化处理得到缩放参数:
其中,zi表示第二全连接层第i个神经元的输出值,αi表示归一化后的缩放参数。
在上述基础上,结合缩放参数和全局平均池化层输出的一维特征向量,按以下公式计算得到预设阈值:
ti=αi·average{gm,n,i}m,n
其中,ti表示特征图第i个通道的预设阈值,m、n分别表示特征图的宽度和高度,g表示全局平均池化层输出的一维特征向量,average表示取平均值。
通过以上方式,可以根据残差模块中的特征图的实际情况,适应性地生成预设阈值。此外,为了将预设阈值限定在一定范围内,如果预设阈值大于特征映射的最大绝对值,则预设阈值的输出将为0。通过在深度残差网络的残差模块中嵌入非线性变化层,通过各种非线性变换学习判别特征。消除噪声相关信息,并且预设阈值是在深层架构中自动学习的,而不是由专家手动设置,使得预设阈值更具备适应性。
本实施例中,通过以上方式利用残差子网络实现样本图像到特征图的转换后,可由注意力机制子网络对特征图进一步进行冗余信息去除,以及特征图中目标对象的定位。
本实施例中,注意力机制子网络包括通道注意力模块和空间注意力模块。请参阅图11,注意力机制子网络对特征图的处理如下所示:
S2031,将所述特征图输入到所述通道注意力模块,以抑制所述特征图中的噪声信息,去除冗余信息。
S2032,将所述特征图分别再输入所述通道注意力模块和所述空间注意力模块进行处理,将处理结果再一并导入到空间注意力模块,结合该空间注意力模块的输出结果和输入的特征图进行残差结合处理,基于残差结合处理结果得到空间位置定位信息。
请结合参阅图12,当特征图输入到注意力机制子网络后,首先经过通道注意力模块,以抑制特征图中不重要的噪声信息,去除冗余信息。让模型关注在特征图中的目标对象部分。
去除处理后的特征图再分别进入通道注意力模块和空间注意力模块进行处理,两者分别的处理结果可再与输入的特征图进行融合后,一起输入到空间注意力模块中。如此,可以对目标对象进行定位,且不会丢失大量原图信息。
在此基础上,将空间注意力模块的输出结果与输入的特征图用残差的方式进行结合,残差结合的公式如下:
out=Wb*(Wa*X)+X=σ(Fb)*(σ(Fa)*X)+X
其中,X表示输入矩阵,Fa和Fb分别表示通道特征矩阵和空间特征矩阵,Wa和Wb分别表示通道权重矩阵和空间权重矩阵,σ表示ReLU函数。基于残差结合的结果可得到特征图中目标对象的定位信息。
本实施例中,通过上述的处理过程,在深度残差网络中,经过预处理的样本图像进入到深度残差网络中的残差子网络得到样本图像的特征图,将特征图导入到改进的注意力机制子网络中,进行目标对象的空间位置定位以及去除多余的冗余信息,得到满足分类需求的特征图,特征图的维度不会发生变化,可以获得图像更多的判别性特征。最后,经由分类器对特征图中的目标对象进行分类得到分类信息。
在上述基础上,基于输入到深度残差网络中的样本图像的真实标签,以及网络所输出的样本图像对应的输出标签的差异,对深度残差网络模型进行训练得到识别模型。
为了验证识别模型的识别准确率,本实施例所提供的自动校正方法还可包括测试识别模型的步骤,请参阅图13,该步骤可以通过以下方式实现:
S206,采集多张测试图像,各所述测试图像中具有目标对象,各所述测试图像携带有目标对象的真实定位信息和真实分类信息。
S207,将各张测试图像导入所述识别模型中,输出各张测试图像的输出定位信息和输出分类信息。
S208,基于多张测试图像的真实定位信息、真实分类信息、输出定位信息和输出分类信息,计算得到所述识别模型的识别准确率。
本实施例中,所述的测试图像同样地可为无人机巡检过程中所采集的包含目标对象的图像。各张测试图像标记有目标对象的真实定位信息和真实分类信息。
利用识别模型对各张测试图像进行处理,处理的过程同上述深度残差网络对样本图像的处理过程一致。各张测试图像在经过识别模型的处理后,最终可得到对应的输出定位信息和输出分类信息。
可以将测试图像的真实定位信息和输出定位信息进行比对,以检测识别模型对于目标对象的定位是否准确。此外,还可将测试图像的真实分类信息和输出分类信息进行比对,以检测识别模型对于目标对象的分类是否准确。
综合多张测试图像的测试结果,可以得到识别模型的识别准确率。若识别模型的识别准确率达到设定阈值,则可以将该识别模型用于后续的分析处理中。若识别模型的识别准确率较低,则可以继续对识别模型进行训练,进而提高识别模型的识别准确率。
请参阅图14,为本申请实施例提供的电子设备的示例性组件示意图,该电子设备可以是上述的无人机,或者与无人机通信的上位机。该电子设备可包括存储介质110、处理器120、无人机航线自动校正装置130及通信接口140。本实施例中,存储介质110与处理器120均位于电子设备中且二者分离设置。然而,应当理解的是,存储介质110也可以是独立于电子设备之外,且可以由处理器120通过总线接口来访问。可替换地,存储介质110也可以集成到处理器120中,例如,可以是高速缓存和/或通用寄存器。
无人机航线自动校正装置130可以理解为上述电子设备,或电子设备的处理器120,也可以理解为独立于上述电子设备或处理器120之外的在电子设备控制下实现上述无人机航线自动校正方法的软件功能模块。
如图15所示,上述无人机航线自动校正装置130可以包括获取模块131、获得模块132、识别模块133、第一校正模块134和第二校正模块135。下面分别对该无人机航线自动校正装置130的各个功能模块的功能进行详细阐述。
获取模块131,用于获取规划航线,所述规划航线包括多个航拍点,各所述航拍点对应有预设的云台角度。
可以理解,该获取模块131可以用于执行上述步骤S301,关于该获取模块131的详细实现方式可以参照上述对步骤S301有关的内容。
获得模块132,用于在所述无人机基于所述规划航线飞行的过程中,获得所述摄像设备在各个航拍点按照预设的云台角度拍摄得到的图像。
可以理解,该获得模块132可以用于执行上述步骤S302,关于该获得模块132的详细实现方式可以参照上述对步骤S302有关的内容。
识别模块133,用于将各张图像导入预先训练得到的识别模型中,在所述识别模型输出结果表征所述图像中包括目标对象时,获得所述目标对象的定位信息。
可以理解,该识别模块133可以用于执行上述步骤S303,关于该识别模块133的详细实现方式可以参照上述对步骤S303有关的内容。
第一校正模块134,用于基于所述目标对象的定位信息判断所述摄像设备拍摄所述图像时所述云台是否处于超限状态,若处于超限状态,则对拍摄所述图像时的航拍点进行校正。
可以理解,该第一校正模块134可以用于执行上述步骤S304,关于该第一校正模块134的详细实现方式可以参照上述对步骤S304有关的内容。
第二校正模块135,用于基于校正后的航拍点对规划航线进行校正,得到更新航线。
可以理解,该第二校正模块135可以用于执行上述步骤S305,关于该第二校正模块135的详细实现方式可以参照上述对步骤S305有关的内容。
在一种可能的实施方式中,所述无人机还配置有激光设备,上述获取模块131可以用于:
获取所述激光设备采集的目标对象的三维点云数据;
结合所述摄像设备采集的目标对象的图像信息及所述三维点云数据,构建三维点云模型;
根据所述三维点云模型及选择的巡检模式,自动生成多个航拍点,基于所述多个航拍点获得规划航线。
在一种可能的实施方式中,所述无人机航线自动校正装置130还包括用于预先基于深度残差网络模型构建识别模型的构建模块,该深度残差网络模型包括残差子网络、注意力机制子网络和分类器,该构建模块可以用于:
采集多张样本图像,各所述样本图像中具有目标对象,各所述样本图像携带有目标对象的定位标签和分类标签;
将各所述样本图像导入所述深度残差网络模型中的残差子网络,输出各所述样本图像的特征图;
将所述特征图导入所述注意力机制子网络进行空间位置定位处理及冗余信息去除处理,输出各所述特征图中目标对象的定位信息以及冗余处理后的各特征图;
将冗余处理后的各特征图导入所述分类器中,输出各所述特征图中的目标对象的分类信息;
基于各所述样本图像的定位标签、分类标签、定位信息和分类信息,对所述深度残差网络模型进行调整后继续训练,直至满足预设要求时得到所述识别模型。
在一种可能的实施方式中,所述残差子网络包括多个残差模块,每个残差模块包括多层残差学习单元及非线性变化层,所述构建模块可以用于:
针对各所述样本图像,将所述样本图像导入所述深度残差网络模型中,依次利用各个残差模块中的各层残差学习单元对所述样本图像进行处理得到特征图;
利用所述非线性变化层并基于预设阈值对特征图进行收缩处理。
在一种可能的实施方式中,所述构建模块可以用于:
针对导入所述非线性变化层中的各所述特征图,将所述特征图中特征值的绝对值小于或等于预设阈值的通道的特征值置于0,将所述特征图中特征值的绝对值大于所述预设阈值的通道的特征值向0的方向进行收缩。
在一种可能的实施方式中,所述非线性变化层包括依次连接的全局平均池化层、第一全连接层、第二全连接层,所述构建模块可以用于通过以下方式获得预设阈值:
利用所述全局平均池化层对导入的特征图进行全局平均池化处理,得到一维特征向量;
利用所述第一全连接层和第二全连接层对所述一维特征向量进行处理,并对处理结果进行归一化得到缩放参数;
根据所述缩放参数和所述全局平均池化层输出的一维特征向量,计算得到所述预设阈值。
在一种可能的实施方式中,所述注意力机制子网络包括通道注意力模块和空间注意力模块,所述构建模块可以用于:
将所述特征图输入到所述通道注意力模块,以抑制所述特征图中的噪声信息,去除冗余信息;
将所述特征图分别再输入所述通道注意力模块和所述空间注意力模块进行处理,将处理结果再一并导入到空间注意力模块,结合该空间注意力模块的输出结果和输入的特征进行残差结合处理,基于残差结合处理结果得到空间位置定位信息。
在一种可能的实施方式中,所述无人机航线自动校正装置130还包括用于测试所述识别模型的测试模块,该测试模块可以用于:
采集多张测试图像,各所述测试图像中具有目标对象,各所述测试图像携带有目标对象的真实定位信息和真实分类信息;
将各张测试图像导入所述识别模型中,输出各张测试图像的输出定位信息和输出分类信息;
基于多张测试图像的真实定位信息、真实分类信息、输出定位信息和输出分类信息,计算得到所述识别模型的识别准确率。
在一种可能的实施方式中,上述的第一校正模块134可以用于:
基于在所述航拍点拍摄的图像中目标对象的定位信息,计算新的航拍距离和拍摄角度;
根据所述航拍距离和拍摄角度所述航拍点进行校正。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
进一步地,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有机器可执行指令,机器可执行指令被执行时实现上述实施例提供的无人机航线自动校正方法。
具体地,该计算机可读存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该计算机可读存储介质上的计算机程序被运行时,能够执行上述无人机航线自动校正方法。关于计算机可读存储介质中的及其可执行指令被运行时,所涉及的过程,可以参照上述方法实施例中的相关说明,这里不再详述。
综上所述,本申请实施例提供的无人机航线自动校正方法和装置,在基于获取的规划航线飞行的过程中,获得摄像设备在各个航拍点按预设的云台角度拍摄得到的图像。利用预先训练得到的识别模型得到各张图像中目标对象的定位信息,并基于定位信息判定云台超限时,对拍摄图像时的航拍点进行校正,进而基于校正后的航拍点对规划航线进行校正得到更新航线。本方案中,采用预先训练得到识别模型的方式,可以对规划航线中各个航拍点的图像进行识别检测,进而自动修正航线,避免了人工识别调整所存在的效率低下的问题。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种无人机航线自动校正方法,其特征在于,应用于搭载有摄像设备的无人机,所述摄像设备搭载于云台上,所述方法包括:
获取规划航线,所述规划航线包括多个航拍点,各所述航拍点对应有预设的云台角度;
在所述无人机基于所述规划航线飞行的过程中,获得所述摄像设备在各个航拍点按照预设的云台角度拍摄得到的图像;
将各张图像导入预先训练得到的识别模型中,在所述识别模型输出结果表征所述图像中包括目标对象时,获得所述目标对象的定位信息;
基于所述目标对象的定位信息判断所述摄像设备拍摄所述图像时所述云台是否处于超限状态,若处于超限状态,则对拍摄所述图像时的航拍点进行校正;
基于校正后的航拍点对规划航线进行校正,得到更新航线。
2.根据权利要求1所述的无人机航线自动校正方法,其特征在于,所述无人机还配置有激光设备;
所述获取规划航线的步骤,包括:
获取所述激光设备采集的目标对象的三维点云数据;
结合所述摄像设备采集的目标对象的图像信息及所述三维点云数据,构建三维点云模型;
根据所述三维点云模型及选择的巡检模式,自动生成多个航拍点,基于所述多个航拍点获得规划航线。
3.根据权利要求1所述的无人机航线自动校正方法,其特征在于,所述方法还包括预先基于深度残差网络模型构建识别模型的步骤,所述深度残差网络模型包括残差子网络、注意力机制子网络和分类器;
所述步骤包括:
采集多张样本图像,各所述样本图像中具有目标对象,各所述样本图像携带有目标对象的定位标签和分类标签;
将各所述样本图像导入所述深度残差网络模型中的残差子网络,输出各所述样本图像的特征图;
将所述特征图导入所述注意力机制子网络进行空间位置定位处理及冗余信息去除处理,输出各所述特征图中目标对象的定位信息以及冗余处理后的各特征图;
将冗余处理后的各特征图导入所述分类器中,输出各所述特征图中的目标对象的分类信息;
基于各所述样本图像的定位标签、分类标签、定位信息和分类信息,对所述深度残差网络模型进行调整后继续训练,直至满足预设要求时得到所述识别模型。
4.根据权利要求3所述的无人机航线自动校正方法,其特征在于,所述残差子网络包括多个残差模块,每个残差模块包括多层残差学习单元及非线性变化层;
所述将各所述样本图像导入所述深度残差网络模型中的残差子网络,输出各所述样本图像的特征图的步骤,包括:
针对各所述样本图像,将所述样本图像导入所述深度残差网络模型中,依次利用各个残差模块中的各层残差学习单元对所述样本图像进行处理得到特征图;
利用所述非线性变化层并基于预设阈值对特征图进行收缩处理。
5.根据权利要求4所述的无人机航线自动校正方法,其特征在于,所述利用所述非线性变化层并基于预设阈值对特征图进行收缩处理的步骤,包括:
针对导入所述非线性变化层中的各所述特征图,将所述特征图中特征值的绝对值小于或等于预设阈值的通道的特征值置于0,将所述特征图中特征值的绝对值大于所述预设阈值的通道的特征值向0的方向进行收缩。
6.根据权利要求5所述的无人机航线自动校正方法,其特征在于,所述非线性变化层包括依次连接的全局平均池化层、第一全连接层、第二全连接层;
所述预设阈值通过以下方式获得:
利用所述全局平均池化层对导入的特征图进行全局平均池化处理,得到一维特征向量;
利用所述第一全连接层和第二全连接层对所述一维特征向量进行处理,并对处理结果进行归一化得到缩放参数;
根据所述缩放参数和所述全局平均池化层输出的一维特征向量,计算得到所述预设阈值。
7.根据权利要求3所述的无人机航线自动校正方法,其特征在于,所述注意力机制子网络包括通道注意力模块和空间注意力模块;
所述将所述特征图导入所述注意力机制子网络进行空间位置定位处理及冗余信息去除处理的步骤,包括:
将所述特征图输入到所述通道注意力模块,以抑制所述特征图中的噪声信息,去除冗余信息;
将所述特征图分别再输入所述通道注意力模块和所述空间注意力模块进行处理,将处理结果再一并导入到空间注意力模块,结合该空间注意力模块的输出结果和输入的特征进行残差结合处理,基于残差结合处理结果得到空间位置定位信息。
8.根据权利要求3所述的无人机航线自动校正方法,其特征在于,所述方法还包括测试所述识别模型的步骤,该步骤包括:
采集多张测试图像,各所述测试图像中具有目标对象,各所述测试图像携带有目标对象的真实定位信息和真实分类信息;
将各张测试图像导入所述识别模型中,输出各张测试图像的输出定位信息和输出分类信息;
基于多张测试图像的真实定位信息、真实分类信息、输出定位信息和输出分类信息,计算得到所述识别模型的识别准确率。
9.根据权利要求1所述的无人机航线自动校正方法,其特征在于,所述对拍摄所述图像时的航拍点进行校正的步骤,包括:
基于在所述航拍点拍摄的图像中目标对象的定位信息,计算新的航拍距离和拍摄角度;
根据所述航拍距离和拍摄角度所述航拍点进行校正。
10.一种无人机航线自动校正装置,其特征在于,应用于搭载有摄像设备的无人机,所述摄像设备搭载于云台上,所述装置包括:
获取模块,用于获取规划航线,所述规划航线包括多个航拍点,各所述航拍点对应有预设的云台角度;
获得模块,用于在所述无人机基于所述规划航线飞行的过程中,获得所述摄像设备在各个航拍点按照预设的云台角度拍摄得到的图像;
识别模块,用于将各张图像导入预先训练得到的识别模型中,在所述识别模型输出结果表征所述图像中包括目标对象时,获得所述目标对象的定位信息;
第一校正模块,用于基于所述目标对象的定位信息判断所述摄像设备拍摄所述图像时所述云台是否处于超限状态,若处于超限状态,则对拍摄所述图像时的航拍点进行校正;
第二校正模块,用于基于校正后的航拍点对规划航线进行校正,得到更新航线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210292932.2A CN114677859B (zh) | 2022-03-23 | 2022-03-23 | 无人机航线自动校正方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210292932.2A CN114677859B (zh) | 2022-03-23 | 2022-03-23 | 无人机航线自动校正方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114677859A true CN114677859A (zh) | 2022-06-28 |
CN114677859B CN114677859B (zh) | 2023-07-18 |
Family
ID=82075110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210292932.2A Active CN114677859B (zh) | 2022-03-23 | 2022-03-23 | 无人机航线自动校正方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114677859B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106501829A (zh) * | 2016-09-26 | 2017-03-15 | 北京百度网讯科技有限公司 | 一种无人机导航方法和装置 |
CN109062233A (zh) * | 2018-08-15 | 2018-12-21 | 广东电网有限责任公司 | 一种输电线路无人机自动驾驶巡检方法 |
KR101949782B1 (ko) * | 2018-10-22 | 2019-02-19 | 새한항업(주) | 무인항공사진 촬영의 중복도 자동 확인 시스템 |
CN109978820A (zh) * | 2019-01-31 | 2019-07-05 | 广州中科云图智能科技有限公司 | 基于激光点云的无人机航线获取方法、系统以及设备 |
CN110888453A (zh) * | 2018-09-11 | 2020-03-17 | 杨扬 | 一种基于LiDAR数据构建三维实景的无人机自主飞行方法 |
CN112098926A (zh) * | 2020-09-15 | 2020-12-18 | 中国民用航空飞行学院 | 一种利用无人机平台的智能测角训练样本生成方法 |
CN112287896A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 一种基于深度学习的无人机航拍图像目标检测方法及系统 |
CN112422905A (zh) * | 2020-11-05 | 2021-02-26 | 广东电网有限责任公司 | 一种电力设备图像采集方法、装置、设备和介质 |
JP2021033482A (ja) * | 2019-08-20 | 2021-03-01 | 株式会社クボタ | 飛行体の支援システム |
KR20210123671A (ko) * | 2020-04-03 | 2021-10-14 | 한국전력공사 | 드론 블랙박스 시스템 및 드론 모니터링 조치 방법 |
CN113625748A (zh) * | 2021-07-27 | 2021-11-09 | 国家电网有限公司 | 一种变电站无人机巡检航线规划方法 |
CN114037895A (zh) * | 2021-11-09 | 2022-02-11 | 国网四川省电力公司眉山供电公司 | 一种无人机杆塔巡检图像识别方法 |
CN114035614A (zh) * | 2022-01-10 | 2022-02-11 | 成都奥伦达科技有限公司 | 基于先验信息的无人机自主巡检方法、系统及存储介质 |
-
2022
- 2022-03-23 CN CN202210292932.2A patent/CN114677859B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106501829A (zh) * | 2016-09-26 | 2017-03-15 | 北京百度网讯科技有限公司 | 一种无人机导航方法和装置 |
CN109062233A (zh) * | 2018-08-15 | 2018-12-21 | 广东电网有限责任公司 | 一种输电线路无人机自动驾驶巡检方法 |
CN110888453A (zh) * | 2018-09-11 | 2020-03-17 | 杨扬 | 一种基于LiDAR数据构建三维实景的无人机自主飞行方法 |
KR101949782B1 (ko) * | 2018-10-22 | 2019-02-19 | 새한항업(주) | 무인항공사진 촬영의 중복도 자동 확인 시스템 |
CN109978820A (zh) * | 2019-01-31 | 2019-07-05 | 广州中科云图智能科技有限公司 | 基于激光点云的无人机航线获取方法、系统以及设备 |
JP2021033482A (ja) * | 2019-08-20 | 2021-03-01 | 株式会社クボタ | 飛行体の支援システム |
KR20210123671A (ko) * | 2020-04-03 | 2021-10-14 | 한국전력공사 | 드론 블랙박스 시스템 및 드론 모니터링 조치 방법 |
CN112098926A (zh) * | 2020-09-15 | 2020-12-18 | 中国民用航空飞行学院 | 一种利用无人机平台的智能测角训练样本生成方法 |
CN112422905A (zh) * | 2020-11-05 | 2021-02-26 | 广东电网有限责任公司 | 一种电力设备图像采集方法、装置、设备和介质 |
CN112287896A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 一种基于深度学习的无人机航拍图像目标检测方法及系统 |
CN113625748A (zh) * | 2021-07-27 | 2021-11-09 | 国家电网有限公司 | 一种变电站无人机巡检航线规划方法 |
CN114037895A (zh) * | 2021-11-09 | 2022-02-11 | 国网四川省电力公司眉山供电公司 | 一种无人机杆塔巡检图像识别方法 |
CN114035614A (zh) * | 2022-01-10 | 2022-02-11 | 成都奥伦达科技有限公司 | 基于先验信息的无人机自主巡检方法、系统及存储介质 |
Non-Patent Citations (2)
Title |
---|
徐伟等: "面向斜拉桥索塔巡检的旋翼UAV避障航迹规划", 《计算机测量与控制》 * |
徐伟等: "面向斜拉桥索塔巡检的旋翼UAV避障航迹规划", 《计算机测量与控制》, no. 01, 25 January 2020 (2020-01-25) * |
Also Published As
Publication number | Publication date |
---|---|
CN114677859B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102661954B1 (ko) | 이미지 처리 방법 및 이를 수행하는 장치들 | |
JP2020126614A (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
CN108806334A (zh) | 一种基于图像的智能船舶身份识别方法 | |
CN111368766B (zh) | 一种基于深度学习的牛脸检测与识别方法 | |
CN111213155A (zh) | 图像处理方法、设备、可移动平台、无人机及存储介质 | |
CN110163211B (zh) | 一种图像识别方法、装置和存储介质 | |
CN111765974B (zh) | 一种基于微型制冷红外热像仪的野生动物观测系统及方法 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN115690542A (zh) | 一种基于改进yolov5的航拍绝缘子定向识别方法 | |
CN111476289A (zh) | 一种基于特征库的鱼群识别方法、装置、设备及存储介质 | |
CN116206223A (zh) | 一种基于无人机边缘计算的火灾检测方法及系统 | |
CN112668596B (zh) | 三维物体识别方法及装置、识别模型训练方法及装置 | |
CN114677859B (zh) | 无人机航线自动校正方法和装置 | |
CN112585945A (zh) | 对焦方法、装置及设备 | |
CN111461008A (zh) | 结合场景透视信息的无人机航拍目标检测方法 | |
CN116009581A (zh) | 输电线路的无人机巡检方法、无人机控制终端及存储介质 | |
CN110751163A (zh) | 目标定位方法及其装置、计算机可读存储介质和电子设备 | |
CN115328204A (zh) | 基于前端目标识别和无人机避障信息的pms参数自动校验方法及系统 | |
CN115376184A (zh) | 一种基于生成对抗网络的ir图像活体检测方法 | |
CN114693528A (zh) | 无人机低空遥感图像拼接质量评估与降冗方法及系统 | |
CN114037895A (zh) | 一种无人机杆塔巡检图像识别方法 | |
CN113379738A (zh) | 一种基于图像的疫木检测与定位方法及系统 | |
CN115797446A (zh) | 货架定位方法、货架对接方法以及装置、设备、介质 | |
CN112585946A (zh) | 图像拍摄方法、装置、可移动平台和存储介质 | |
CN117812466B (zh) | 一种大场景双机联动相机校准方法、设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |