CN114894191B - 一种适用于动态复杂环境的无人机导航方法 - Google Patents

一种适用于动态复杂环境的无人机导航方法 Download PDF

Info

Publication number
CN114894191B
CN114894191B CN202210392153.XA CN202210392153A CN114894191B CN 114894191 B CN114894191 B CN 114894191B CN 202210392153 A CN202210392153 A CN 202210392153A CN 114894191 B CN114894191 B CN 114894191B
Authority
CN
China
Prior art keywords
network
information
activity
aerial vehicle
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210392153.XA
Other languages
English (en)
Other versions
CN114894191A (zh
Inventor
张德华
谢奕
郝昕源
牟书含
董涛
梁琳琳
秦春斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202210392153.XA priority Critical patent/CN114894191B/zh
Publication of CN114894191A publication Critical patent/CN114894191A/zh
Application granted granted Critical
Publication of CN114894191B publication Critical patent/CN114894191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种适用于动态复杂环境的无人机导航方法,属于三维建模和无人机设备技术领域,包括如下步骤:S100:视觉里程计模块算出位姿信息;S200:搭建神经网络;S300:绘制三维认知地图;S400:闭环检测校正位姿信息。本发明通过神经网络的实时更新,驱动创建三维认知地图,通过历史场景的匹配实现神经网络的位姿校正,纠正三维认知地图中的累积错误,解决了无人机在动态复杂环境下飞行误差大、精度低、智能性弱的问题。

Description

一种适用于动态复杂环境的无人机导航方法
技术领域
本发明涉及三维建模和无人机设备技术领域,特别涉及一种适用于动态复杂环境的无人机导航方法。
背景技术
目前,同步定位和地图构建(Simultaneous Localization and Mapping,SLAM)技术是无人机的核心技术之一,在未知动态复杂环境下的定位和导航发挥着重要作用。传统的基于概率模型的SLAM方法,运算复杂度高、智能化水平低、成本高,无法满足无人机的导航需求。因此基于视觉传感器的SLAM技术成为SLAM领域的重要发展方向。视觉传感器虽然在一些方面弥补了概率方法的不足,但无人机在复杂动态环境下飞行时,极易受外界环境影响,智能化水平不高。
有些学者根据动物记忆目标与适应环境的导航模型,提出了一些基于生物导航细胞神经网络模型的类脑SLAM并将其运用于移动机器人。类脑SLAM以啮齿类动物大脑导航机理为基础,配备轻便、低成本的视觉传感器,通过导航细胞活性更新进行导航信息迭代和地图构建,并利用局部场景细胞活性进行校正,不依赖高精度传感器,自主智能水平高,适用于在复杂的动态环境中进行导航和地图构建。NeuroSLAM是一种新型神经灵感四自由度SLAM系统,它基于3D网格细胞和多层头部方向细胞的计算模型,与提供外部视觉提示和自运动线索的视觉系统集成,与无人机实际飞行情景更加匹配。鉴于目前许多模型对无人机方位信息的表达局限于二维参数,对无人机实际的三维飞行环境并不适用,存在着飞行误差大、精度低、智能性弱的问题。
发明内容
本发明的目的在于提供一种适用于动态复杂环境的无人机导航方法,通过神经网络的实时更新,驱动创建三维认知地图,通过历史场景的匹配实现神经网络的位姿校正,纠正三维认知地图中的累积错误,可以有效地解决无人机在动态复杂环境下飞行误差大、精度低、智能性弱的问题,更贴合于实际的飞行情景,提高了无人机导航的性能。
为实现上述目的,本发明提供如下技术方案:
一种适用于动态复杂环境的无人机导航方法,包括如下步骤:
S100:视觉里程计模块算出位姿信息,位姿信息与无人机上传感器获得的飞行环境数据打包筛选,筛选出动态复杂环境下无人机飞行所需的位姿信息以及与其相匹配的飞行环境数据;
S200:搭建神经网络,对导向细胞网络、网格细胞3D网络以及位置细胞网络进行建模,形成神经网络,将视觉里程计得到的位姿信息及飞行环境数据导入神经网络;
S300:绘制三维认知地图,网格细胞3D网络通过得到的当前位置和方向信息、位置细胞网络的校正信息和视觉里程计得到的位姿信息以及飞行环境数据,不断更新,获得三维地图,将采集到的图片汇集成点集,构建三维地图模型,不断地对三维地图上的点集和三维地图模型的点集比对校正,直到三维地图上的点集和三维地图模型的点集融合,这样经过校正后绘制出无人机的三维认知地图;
S400:闭环检测校正位姿信息,系统在位置细胞激活时,将当前四个自由度的活动信息修正为校正后的信息,并将当前的信息输入到神经网络中,得到全新的位姿信息。
进一步地,S100中的具体步骤为:
视觉里程计模块获取相机采集的视频,提取场景信息并获取所得视频流中当前帧与上一帧之间的图像差别特征,从而估算出无人机的位姿信息。
进一步地,S100中生成视觉模板的具体步骤为:
生成视觉模板,分析历史场景和目前场景的对应关系,若匹配成功,则激活位置细胞。
进一步地,导向细胞网络表示无人机方向变化(θ),网格细胞3D网络表示无人机绝对位置变化(x,y,z),组合表示四自由度位(x,y,z,θ),位置细胞网络校正网格细胞网络和导向细胞网络。
进一步地,搭建导向细胞网络的具体步骤为:
用一个二维矩阵表示导向细胞网络的一个单元,一个维度表示无人机高度变化,一个维度表示方向变化,当发生活动时,部分单元被激励,再经历整体抑制和活动正常化,最终得到无人机的活动变化,用活动矩阵描述导向细胞网络的活动,当部分单元被激励,重量矩阵为:
其中,δd、δh分别为关于无人机方向和高度分布的方差常数,α、β表示单元之间的距离指数;
激励时活动变化为:
其中nd、nh分别为矩阵的2个维度;
距离指数为α,β:
α=(x-i)(mod nd)
β=(y-i)(mod nh)
整体抑制时活动变化为:
其中为抑制量级矩阵,τ为整体抑制参数;
活动正常化时,活动变化为:
由于导向细胞网络的总活动与活动正常化时保持一致,所以得到最终活动变化
进一步地,搭建网格细胞3D网络的具体步骤为:
用一个三维矩阵表示导向细胞网络的一个单元,三个维度分别表示无人机的三维绝对位置信息、导向细胞网络发送的位姿相关信息和视觉里程计发送的位姿相关信息信息,当发生活动时,部分单元被激励,再经历整体抑制和活动正常化,最终得到无人机的活动变化,用活动矩阵描述网格细胞3D网络的活动,当部分单元被激励,重量矩阵为:
其中,δx、δy、δz分别为关于无人机三维空间分布的方差常数,α、β、γ表示单元之间的距离指数,距离指数为:
α=(x-i)(mod nx)
β=(y-i)(mod ny)
γ=(z-i)(mod nz)
激励时活动变化为:
其中nx、ny、nz分别为矩阵的3个维度;
整体抑制时活动变化为:
其中为抑制量级矩阵,τ为整体抑制参数;
活动正常化时,活动变化为:
由于网格细胞3D网络的总活动与活动正常化时保持一致,所以得到最终活动变化
进一步地,位置细胞网络校正网格细胞3D网络和导向细胞网络具体为:位置细胞网络通过连接权值矩阵反馈到相关的导向细胞网络和网格细胞3D网络中,进行校正;
定义位置细胞网络对导向细胞网络和网格细胞3D网络的校正梯度计算公式为:
其中λ表示位置细胞校正强度,npc表示当前活跃的位置细胞个数,Γi表示位置细胞活动变化,Ii,θ表示与原经历点方向变化和距离变化的信息存储,Ii,p表示与原经历点方向变化和距离变化的信息存储。
进一步地,S300中绘制三维认知地图的具体步骤为:
网格细胞3D网络通过得到的当前位置和方向信息、位置细胞的校正信息和视觉里程计得到的位姿信息Ei,不断更新,将各个经历点的位姿信息集合,经过校正后绘制出无人机的三维认知地图:
用Ei表示经历点的信息的四自由度信息,其由位置细胞校正信息、网格细胞3D网络活动变化信息和导向细胞网络变化信息组成。
其中,依次表示与原经历点间的四自由度位姿变化和距离变化。
进一步地,S400中闭环检测校正位姿信息具体步骤为:
系统在位置细胞激活时,将当前四个自由度的活动信息修正为校正后的信息,并将当前的信息输入到神经网络中,得到全新的位姿信息。
进一步地,定义校正后的位姿变化为:
其中,μ表示校正率,NT是本次活动状态转换到其它活动状态经历的数量,NF是其它活动状态经历到本次活动状态转换的数量。
与现有技术相比,本发明的有益效果是:
1.本发明基于NeuroSLAM模型实现无人机在动态复杂环境下的导航,通过神经网络的实时更新,实现位姿更新,将各个经历点的位姿信息集合,经过校正后绘制出无人机的三维认知地图驱动创建三维认知地图,通过历史场景的匹配实现神经网络的位姿校正,纠正三维认知地图中的累积错误。
2.本发明采用类似动物大脑的建模机制,具有更高的智能化水平,可以在三维空间中保持无人机的方向,每个单元由一个二维矩阵表示,两个维度分别表示无人机运动的方向变化和高度变化,构建的三维四自由度模型,更加贴合无人机实际的运动情景。
附图说明
图1为本发明适用于动态复杂环境的无人机导航方法的流程图;
图2为本发明无人机基于NeuroSLAM实现导航的整体框架结构图;
图3为本发明的导向细胞网络模型结构图;
图4为本发明的网格细胞3D网络的三维模型结构图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1展示了本发明的方法流程示意,包括了视觉里程计模块算出位姿信息、搭建神经网络、绘制三维认知地图、闭环检测校正位姿信息四个步骤,图2展示了适用于动态复杂环境的无人机导航方法的整体框架结构,包括如下步骤:
S100:视觉里程计模块算出位姿信息,位姿信息与无人机上传感器获得的飞行环境数据打包筛选,筛选出动态复杂环境下无人机飞行所需的位姿信息以及与其相匹配的飞行环境数据。
视觉里程计模块获取相机采集的视频,提取场景信息并获取所得视频流中当前帧与上一帧之间的图像差别特征,从而估算出无人机的位姿信息。
生成视觉模板具体为:生成视觉模板,分析历史场景和目前场景的对应关系,若匹配成功,则激活位置细胞。
用无人机机载的低分辨率相机采集视频,获取所得视频流中当前帧与上一帧之间的图像差别特征。例如,可以通过光流网络(Flownet:Learning OpticalFlowwithCorvolutional Networks)模型获取图像差别特征。可以将相邻两帧图像重叠起来输入光流网络模型,利用光流网模型获取图像差别特征。图像差别特征为高维特征,高维特征的通道数可以根据当前帧图像的分辨率确定。例如,光流网络模型可以对重叠后的图像进行卷积处理,并根据卷积处理结果提取相邻两帧图像每个像素的偏移量作为图像差别特征。从而将将高维冗余的图像信息转换为高层、抽象的语义特征,提高了姿态确定的准确性。视觉里程计模块通过比较一组连续图像计算并存储视觉模板,将得到的特征信息与视觉模板配对,若差异小于阈值,匹配成功,激活位置细胞。
S200:搭建神经网络,搭建导向细胞网络、网格细胞3D网络和位置细胞模型,对导向细胞网络、网格细胞3D网络以及位置细胞进行建模,形成神经网络,将视觉里程计得到的位姿信息及飞行环境数据导入神经网络。
导向细胞网络如图3,是由一组具有固定加权连接值的单元组成的神经网络,可以在三维空间中保持无人机的方向。每个单元由一个二维矩阵表示,两个维度分别表示无人机运动的方向变化和高度变化。其工作流程具体为,视觉里程计得到的位姿信息,导向细胞网络接连经历激励、抑制和正常化的变化;随后接受网格细胞3D网络得到的高度变化速度、水平变化速度和角变化速度等信息,实现位姿更新。
导向细胞网络表示无人机方向变化(θ),网格细胞3D网络表示无人机绝对位置变化(x,y,z),组合表示四自由度位(x,y,z,θ),位置细胞网络校正网格细胞网络和导向细胞网络。
搭建导向细胞网络的具体步骤为:
用一个二维矩阵表示导向细胞网络的一个单元,一个维度表示无人机高度变化,一个维度表示方向变化,当发生活动时,部分单元被激励,再经历整体抑制和活动正常化,最终得到无人机的活动变化,用活动矩阵描述导向细胞网络的活动,当部分单元被激励,重量矩阵为:
其中,δd、δh分别为关于无人机方向和高度分布的方差常数,α、β表示单元之间的距离指数;
激励时活动变化为:
其中nd、nh分别为矩阵的2个维度;
距离指数为α,β:
α=(x-i)(mod nd)
β=(y-i)(mod nh)
整体抑制时活动变化为:
其中为抑制量级矩阵,τ为整体抑制参数;
活动正常化时,活动变化为:
由于导向细胞网络的总活动与活动正常化时保持一致,所以得到最终活动变化
网格细胞3D网络如图4,本发明采用三维连续吸引子神经网络建模,表示三维空间区域中位置、方向等信息。该网络在三维空间的每个区域都由特定的神经元接通,再根据具体的活动变化进行路径积分,更新位姿信息。
当回到历史场景时,网格细胞3D网络和头朝向细胞会收到位置细胞的反馈,调用历史位姿信息进行校正。当前位姿信息与视觉模板配对,若匹配,位置细胞激活,位置细胞网络通过连接权值矩阵反馈到相关的头朝向细胞和网格细胞中。
搭建网格细胞3D网络的具体步骤为:
用一个三维矩阵表示导向细胞网络的一个单元,三个维度分别表示无人机的三维绝对位置信息、导向细胞网络发送的位姿相关信息和视觉里程计发送的位姿相关信息信息,当发生活动时,部分单元被激励,再经历整体抑制和活动正常化,最终得到无人机的活动变化,用活动矩阵描述网格细胞3D网络的活动,当部分单元被激励,重量矩阵为:
其中,δx、δy、δz分别为关于无人机三维空间分布的方差常数,α、β、γ表示单元之间的距离指数,距离指数为:
α=(x-i)(mod nx)
β=(y-i)(mod ny)
γ=(z-i)(mod nz)
激励时活动变化为:
其中nx、ny、nz分别为矩阵的3个维度;
整体抑制时活动变化为:
其中为抑制量级矩阵,τ为整体抑制参数;
活动正常化时,活动变化为:
由于网格细胞3D网络的总活动与活动正常化时保持一致,所以得到最终活动变化
位置细胞网络校正网格细胞3D网络和导向细胞网络具体为:位置细胞网络通过连接权值矩阵反馈到相关的导向细胞网络和网格细胞3D网络中,进行校正;
定义位置细胞网络对导向细胞网络和网格细胞3D网络的校正梯度计算公式为:
其中λ表示位置细胞校正强度,npc表示当前活跃的位置细胞个数,Γi表示位置细胞活动变化,Ii,θ表示与原经历点方向变化和距离变化的信息存储,Ii,p表示与原经历点方向变化和距离变化的信息存储。
S300:绘制三维认知地图,网格细胞3D网络通过得到的当前位置和方向信息、位置细胞网络的校正信息和视觉里程计得到的位姿信息以及飞行环境数据,不断更新,获得三维地图,将采集到的图片汇集成点集,构建三维地图模型,不断地对三维地图上的点集和三维地图模型的点集比对校正,直到三维地图上的点集和三维地图模型的点集融合,这样经过校正后绘制出无人机的三维认知地图。
将视觉模板中的配置文件和当前得到的配置文件比对,若经历点与过去场景重合,则采用经过校正后得到的处于过渡状态的经历点信息。每个经历点信息由导向细胞活动、网格细胞活动、位置细胞校正和视觉里程计四自由度信息融合而成。三维认知地图由无数连续的经历点组成。
绘制三维认知地图的具体步骤为:
网格细胞3D网络通过得到的当前位置和方向信息、位置细胞的校正信息和视觉里程计得到的位姿信息Ei,不断更新,将各个经历点的位姿信息集合,经过校正后绘制出无人机的三维认知地图:
用Ei表示经历点的信息的四自由度信息,其由位置细胞校正信息、网格细胞3D网络活动变化信息和导向细胞网络变化信息组成。
其中,依次表示与原经历点间的四自由度位姿变化和距离变化。
S400:闭环检测校正位姿信息,系统在位置细胞网络激活时,将当前四个自由度的活动信息修正为校正后的信息,并将当前的信息输入到神经网络中,得到全新的位姿信息。
运用基于外观的闭环检测方法,先通过当前帧的特征点与前一帧的特征点对闭环检测的输入图像进行预处理,再对图像特征点投影,生成对应的场景向量文件,然后比较目前场景与视觉模板中存储的历史场景的相似度,若两个场景向量文件的差异度小于比较公式的阈值,则可形成闭环回路。当前视觉里程计获取的信息与视觉模板存储的信息匹配后,将会激活位置细胞,反馈到网格细胞网络和导向细胞网络。这减小了认知地图的位姿信息误差。
闭环检测校正位姿信息具体步骤为:
系统在位置细胞网络激活时,将当前四个自由度的活动信息修正为校正后的信息,并将当前的信息输入到神经网络中,得到全新的位姿信息。定义校正后的位姿变化为:
其中,μ表示校正率,NT是本次活动状态转换到其它活动状态经历的数量,NF是其它活动状态经历到本次活动状态转换的数量。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种适用于动态复杂环境的无人机导航方法,其特征在于,包括如下步骤:
S100:视觉里程计模块算出位姿信息,位姿信息与无人机上传感器获得的飞行环境数据打包筛选,筛选出动态复杂环境下无人机飞行所需的位姿信息以及与其相匹配的飞行环境数据;
S200:搭建神经网络,对导向细胞网络、网格细胞3D网络以及位置细胞网络进行建模,形成神经网络,将视觉里程计得到的位姿信息及飞行环境数据导入神经网络;
S300:绘制三维认知地图,网格细胞3D网络通过得到的当前位置和方向信息、位置细胞网络的校正信息和视觉里程计得到的位姿信息以及飞行环境数据,不断更新,获得三维地图,将采集到的图片汇集成点集,构建三维地图模型,不断地对三维地图上的点集和三维地图模型的点集比对校正,直到三维地图上的点集和三维地图模型的点集融合,这样经过校正后绘制出无人机的三维认知地图;
S400:闭环检测校正位姿信息,系统在位置细胞激活时,将当前四个自由度的活动信息修正为校正后的信息,并将当前的信息输入到神经网络中,得到全新的位姿信息。
2.如权利要求1所述的一种适用于动态复杂环境的无人机导航方法,其特征在于,S100中的具体步骤为:
视觉里程计模块获取相机采集的视频,提取场景信息并获取所得视频流中当前帧与上一帧之间的图像差别特征,从而估算出无人机的位姿信息。
3.如权利要求1所述的一种适用于动态复杂环境的无人机导航方法,其特征在于,S100中生成视觉模板的具体步骤为:
生成视觉模板,分析历史场景和目前场景的对应关系,若匹配成功,则激活位置细胞。
4.如权利要求1所述的适用于动态复杂环境的无人机导航方法,其特征在于,导向细胞网络表示无人机方向变化(θ),网格细胞3D网络表示无人机绝对位置变化(x,y,z),组合表示四自由度位(x,y,z,θ),位置细胞网络校正网格细胞网络和导向细胞网络。
5.如权利要求4所述的适用于动态复杂环境的无人机导航方法,其特征在于,搭建导向细胞网络的具体步骤为:
用一个二维矩阵表示导向细胞网络的一个单元,一个维度表示无人机高度变化,一个维度表示方向变化,当发生活动时,部分单元被激励,再经历整体抑制和活动正常化,最终得到无人机的活动变化,用活动矩阵描述导向细胞网络的活动,当部分单元被激励,重量矩阵为:
其中,δd、δh分别为关于无人机方向和高度分布的方差常数,α、β表示单元之间的距离指数;
激励时活动变化为:
其中nd、nh分别为矩阵的2个维度;
距离指数为α,β:
α=(x-i)(mod nd)
β=(y-i)(mod nh)
整体抑制时活动变化为:
其中为抑制量级矩阵,τ为整体抑制参数;
活动正常化时,活动变化为:
由于导向细胞网络的总活动与活动正常化时保持一致,所以得到最终活动变化
6.如权利要求1所述的适用于动态复杂环境的无人机导航方法,其特征在于,搭建网格细胞3D网络的具体步骤为:
用一个三维矩阵表示导向细胞网络的一个单元,三个维度分别表示无人机的三维绝对位置信息、导向细胞网络发送的位姿相关信息和视觉里程计发送的位姿相关信息信息,当发生活动时,部分单元被激励,再经历整体抑制和活动正常化,最终得到无人机的活动变化,用活动矩阵描述网格细胞3D网络的活动,当部分单元被激励,重量矩阵为:
其中,δx、δy、δz分别为关于无人机三维空间分布的方差常数,α、β、γ表示单元之间的距离指数,距离指数为:
α=(x-i)(mod nx)
β=(y-i)(mod ny)
γ=(z-i)(mod nz)
激励时活动变化为:
其中nx、ny、nz分别为矩阵的3个维度;
整体抑制时活动变化为:
其中为抑制量级矩阵,τ为整体抑制参数;
活动正常化时,活动变化为:
由于网格细胞3D网络的总活动与活动正常化时保持一致,所以得到最终活动变化
7.如权利要求6所述的适用于动态复杂环境的无人机导航方法,其特征在于,位置细胞网络校正网格细胞3D网络和导向细胞网络具体为:位置细胞网络通过连接权值矩阵反馈到相关的导向细胞网络和网格细胞3D网络中,进行校正;
定义位置细胞网络对导向细胞网络和网格细胞3D网络的校正梯度计算公式为:
其中λ表示位置细胞校正强度,npc表示当前活跃的位置细胞个数,Γi表示位置细胞活动变化,Ii,θ表示与原经历点方向变化和距离变化的信息存储,Ii,p表示与原经历点方向变化和距离变化的信息存储。
8.如权利要求1所述的适用于动态复杂环境的无人机导航方法,其特征在于,S300中绘制三维认知地图的具体步骤为:
网格细胞3D网络通过得到的当前位置和方向信息、位置细胞的校正信息和视觉里程计得到的位姿信息Ei,不断更新,将各个经历点的位姿信息集合,经过校正后绘制出无人机的三维认知地图:
用Ei表示经历点的信息的四自由度信息,其由位置细胞校正信息、网格细胞3D网络活动变化信息和导向细胞网络变化信息组成;
其中,依次表示与原经历点间的四自由度位姿变化和距离变化。
9.如权利要求1所述的适用于动态复杂环境的无人机导航方法,其特征在于,S400中闭环检测校正位姿信息具体步骤为:
系统在位置细胞激活时,将当前四个自由度的活动信息修正为校正后的信息,并将当前的信息输入到神经网络中,得到全新的位姿信息。
10.如权利要求9所述的适用于动态复杂环境的无人机导航方法,其特征在于,定义校正后的位姿变化为:
其中,μ表示校正率,NT是本次活动状态转换到其它活动状态经历的数量,NF是其它活动状态经历到本次活动状态转换的数量。
CN202210392153.XA 2022-04-14 2022-04-14 一种适用于动态复杂环境的无人机导航方法 Active CN114894191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210392153.XA CN114894191B (zh) 2022-04-14 2022-04-14 一种适用于动态复杂环境的无人机导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210392153.XA CN114894191B (zh) 2022-04-14 2022-04-14 一种适用于动态复杂环境的无人机导航方法

Publications (2)

Publication Number Publication Date
CN114894191A CN114894191A (zh) 2022-08-12
CN114894191B true CN114894191B (zh) 2024-04-26

Family

ID=82717499

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210392153.XA Active CN114894191B (zh) 2022-04-14 2022-04-14 一种适用于动态复杂环境的无人机导航方法

Country Status (1)

Country Link
CN (1) CN114894191B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018010458A1 (zh) * 2016-07-10 2018-01-18 北京工业大学 一种基于鼠脑海马空间细胞的机器人导航地图构建方法
CN111376273A (zh) * 2020-04-23 2020-07-07 大连理工大学 一种类脑启发的机器人认知地图构建方法
CN112097769A (zh) * 2020-08-05 2020-12-18 北京航空航天大学 仿信鸽脑-海马的无人机同时定位与建图导航系统及方法
CN112648999A (zh) * 2020-11-30 2021-04-13 南京航空航天大学 一种基于多尺度网格细胞路径积分的类脑导航方法
CN113297506A (zh) * 2021-06-08 2021-08-24 南京航空航天大学 一种基于社交位置细胞/网格细胞的类脑相对导航方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018010458A1 (zh) * 2016-07-10 2018-01-18 北京工业大学 一种基于鼠脑海马空间细胞的机器人导航地图构建方法
CN111376273A (zh) * 2020-04-23 2020-07-07 大连理工大学 一种类脑启发的机器人认知地图构建方法
CN112097769A (zh) * 2020-08-05 2020-12-18 北京航空航天大学 仿信鸽脑-海马的无人机同时定位与建图导航系统及方法
CN112648999A (zh) * 2020-11-30 2021-04-13 南京航空航天大学 一种基于多尺度网格细胞路径积分的类脑导航方法
CN113297506A (zh) * 2021-06-08 2021-08-24 南京航空航天大学 一种基于社交位置细胞/网格细胞的类脑相对导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于RSSI的仿生SLAM算法研究;张志根;凌有铸;陈孟元;;陕西理工大学学报(自然科学版);20200220(01);全文 *

Also Published As

Publication number Publication date
CN114894191A (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
Bonatti et al. Towards a robust aerial cinematography platform: Localizing and tracking moving targets in unstructured environments
CN110956651B (zh) 一种基于视觉和振动触觉融合的地形语义感知方法
WO2021160184A1 (en) Target detection method, training method, electronic device, and computer-readable medium
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN110827415A (zh) 一种全天候未知环境无人自主工作平台
CN106814737B (zh) 一种基于啮齿类动物模型和RTAB‑Map闭环检测算法的SLAM方法
Bianchi et al. UAV localization using autoencoded satellite images
CN112766499A (zh) 一种通过强化学习技术实现无人机自主飞行的方法
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
Tang et al. Onboard detection-tracking-localization
Pham et al. Gatenet: An efficient deep neural network architecture for gate perception using fish-eye camera in autonomous drone racing
CN114894191B (zh) 一种适用于动态复杂环境的无人机导航方法
CN116824433A (zh) 基于自监督神经网络的视觉-惯导-雷达融合自定位方法
CN115482282A (zh) 自动驾驶场景下具有多目标追踪能力的动态slam方法
CN114964268A (zh) 一种无人机导航方法及装置
Kim et al. Virtual testbed for monocular visual navigation of small unmanned aircraft systems
Qian et al. An improved ORB-SLAM2 in dynamic scene with instance segmentation
Zheng et al. Air2Land: A deep learning dataset for unmanned aerial vehicle autolanding from air to land
Ellingson et al. Deep RC: Enabling remote control through deep learning
Jia et al. Monocular-Vision-Based Positioning Method for UAV Formation
Zhang et al. Recent Advances in Robot Visual SLAM
CN113065499B (zh) 基于视觉学习驱动的空中机器人集群控制方法及系统
CN117452969B (zh) 基于多模态数据处理的无人机导航方法
CN111627064B (zh) 一种行人交互友好型的单目避障方法
Wu et al. Simulation Research on Semantic Map Construction and Path Planning of UAV Based on AirSim

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant