CN113741523B - 一种基于边界和采样的混合无人机自主探测方法 - Google Patents

一种基于边界和采样的混合无人机自主探测方法 Download PDF

Info

Publication number
CN113741523B
CN113741523B CN202111048910.3A CN202111048910A CN113741523B CN 113741523 B CN113741523 B CN 113741523B CN 202111048910 A CN202111048910 A CN 202111048910A CN 113741523 B CN113741523 B CN 113741523B
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
boundary
point
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111048910.3A
Other languages
English (en)
Other versions
CN113741523A (zh
Inventor
胡庆雷
陈绪宁
郑建英
郭雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202111048910.3A priority Critical patent/CN113741523B/zh
Publication of CN113741523A publication Critical patent/CN113741523A/zh
Application granted granted Critical
Publication of CN113741523B publication Critical patent/CN113741523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提出一种基于边界和采样的混合无人机自主探测方法,包括以下步骤:首先,根据提出的策略进行边界点的检测与提取;其次,基于提取到的边界点,继续进行观测点的采样,通过计算采样边界点处的探测增益选取最佳的观测点,并规划一条基于快速扩展随机树的前往路线;然后,将该观测点作为顶点添加至历史路线图中,并将与历史路线图中原有顶点连成的无碰撞边一并加入路线图中;最后,当没有新的边界点被检测到时,历史路线图规划一条返回最近的待探测边界点的路线,当在整个探测任务中找不到边界点的时候,即视为探测完成;本方法能够保证在计算量受限情况下实现无人机在有界未知环境下的自主探测,并且具有能源消耗小,探测效率高的优点。

Description

一种基于边界和采样的混合无人机自主探测方法
技术领域
本发明属于无人机路径规划技术领域,具体涉及一种基于边界和采样的混合无人机自主探测方法,主要应用于完全未知的三维有界环境下无人机完成自主探索的最优飞行路线规划。
背景技术
近年来,随着科技的发展,无人自主机器人在许多领域均发挥着重要的作用,例如地下矿井,精准农业,灾后救援,和三维重建等等。作为自主机器人中最具代表性的种类之一,无人机凭借着灵活机动、体型较小等特点越来越受到人们的青睐。在无人机众多应用中,对完全未知的三维环境的自主探索不容忽视。精准快速的自主探索能够为人们进一步认识复杂未知的灾后现场、地下矿井等危险环境争取时间,从而减少人员伤亡,在现实生活中有着极其广泛的应用。因此,开展未知的三维有界环境下无人机的自主探测研究具有重要意义。
对于一个给定的有界三维空间由于其完全未知的特点,在整个探索过程开始之前,V被初始化为未知空间Vunk。本发明要解决的自主探测问题就是确定每一个体素v∈Vunk属于无碰撞空间/>还是占据空间/>在这个过程中,基于Octomap的三维地图模型M也在同步创建,以实时建模真实的环境。然而在大多数实际场景中,总有一些体素是无法被观测到的,比如空心的空间或者是狭长的走廊等,这些体素均属于不可观测空间/>针对可观测空间/>有Vobs∪Vres=V和Vfree∪Vocc=Vobs
对于在真实场景中飞行的无人飞行器(Micro Aerial Vehicle,MAV)有着旋转和平移6个自由度,然而随着维数的增加,计算复杂度却呈数量级增长。为了简化计算复杂程度,本发明忽略了横滚角和俯仰角的影响,只考虑三个方向上的位置和偏航角,因此无人机的状态x只有四个自由度,即x=[x,y,z,ψ]T,其中p=[x,y,z]T∈V表示无人机的位置,ψ∈[-π,π)表示偏航角度。
此前,针对未知环境下的自主探测问题主要有两种经典的方法,分别是基于边界的方法和基于采样的方法。对于已建立好的三维地图模型来说,边界点被定义为无碰撞空间Vfree和未知空间Vunk的边界,也就是说位于无碰撞空间并且在其6个方向上至少有一个相邻的体素属于未知空间的体素。在配备有深度相机的无人机运动过程中,基于边界的方法通过规划出一条从当前位置到边界点的路径,来不断的探索未知区域,是一种全局规划的思想,但是由于传感器所采集到的数据量过于庞大,需要先过滤,再聚类,以完成数据降维,所以计算资源消耗比较大,对处理器的要求也就比较高。而基于采样的方法是一种局部规划的思想,通过在无人机一定范围内的无碰撞空间中随机采样,通过计算选取增益最高的最佳观测点,继而规划路线前往,虽然一定程度上降低了机器的计算消耗,但是却是一种非启发式的探索策略。由于无人机除了有计算量限制约束之外,还存在着机载能源约束,因此开发一种计算量较小,可以启发式的规划无人机飞行路线的方案具有很大的应用价值。
发明内容
本发明所要解决的技术问题是:针对无人机存在计算量限制、机载能源约束等问题,提供一种基于边界和采样的混合无人机自主探测方法,它是一种计算量小、能源消耗少且能够以更短的飞行距离和飞行时长实现无人机未知环境下自主探测的方法,另外还引入了历史路线图的思想,解决了无人机在计算量和机载能源受限等情况下的精准、快速自主探测问题,提高了其探索效率,尤其是在大规模场景下表现更佳。
本发明的技术解决方案:一种基于边界和采样的混合无人机自主探测方法,其实现步骤如下:
步骤1,无人机实时采集数据,通过与上一次的地图模型对比,检测和提取新的边界点;
边界点被定义为至少有一个方向与未知空间相邻,并且位于无碰撞空间的体素。一般来说,判断体素的相邻有两种方式,分别是6连通(6-connection)和26连通(26-connection),如图2所示。由于在无人机的飞行过程中会采集到大量满足条件的边界点,所以为了减少数据量,本发明选用6连通的判断方式。
在一次迭代过程中,无人机采集到的大量数据,首先与上一次迭代时的三维地图模型相比,获得位于无碰撞空间中新增的体素集合VC。然后根据无人机当前状态x和机载深度相机的具体参数,如最大感知距离dmax、垂直视场角αv和水平视场角αh等计算每一个体素v∈VC是否位于无人机的当前视锥范围内,若是则添加到体素集合VP中。由于地图中任一体素的状态是根据其占据概率确定的,有:
State(v)表示体素v的状态,有无碰撞状态Free、被占据状态Occupied和未知状态Unknown,而p(v)∈[0,1]表示体素的占据概率,通过传感器获取的深度信息叠加得到;
所以这种过滤方法可以为边界点的选取增加一个新的约束,进一步提升获得边界点的准确性。
接下来,对得到的集合VP进行最后的6-连通判断操作,如果其中的某一个体素v∈VP在一个或多个方向上与未知空间紧邻,那么则将该体素同时添加至边界点集合VF和VNF中,其中VF指的是全局边界点集合,而VNF指的是当前迭代过程中所探测到的新边界点的集合。值得一提的是,在每一次迭代正式开始时,集合VF和VNF都需要先进行初始化操作,VF需要判断内部的体素元素是否仍然满足边界点的条件,并删去不满足条件的体素,相比之下VNF的初始化就简单了许多,直接清空整个集合即可。
步骤2,通过在步骤1获取到的边界点中均匀随机采样得到最佳观测点;
与传统的在距离无人机一定范围内的无碰撞空间中随机采样不同,本发明提出一种新的采样方式,通过在上一步得到的边界点集合中均匀采样,可以得到诸多边界点,进而选择最佳的观测点作为无人机接下来的目标点并前往。
具体来说,为了启发式地选择下一最佳观测点从而更加快速的完成无人机的探测任务,本发明让无人机在第一步得到的集合中均匀采样。但是单纯的在全局边界点集合VF中采样,很容易使无人机进行不断地往复运动,从而卡在某一区域内。为了解决这一问题,本发明引入了当前迭代中新得到的边界点集合VNF,通过在其中采样使无人机一直保持向着前方运动直至没有新的边界点被检测到,从而避免的局部的不断往复。本发明预先设置了一个比例系数k,用来平衡无人机在集合VNF和VF中的采样次数。对于每k次观测点的采样,有k-1次均来自集合VNF,一次来自集合VF
正如前文所述,本发明考虑的无人机状态是四维的,也就是三个方向的位置和偏航角。由于无人机的运算能力和处理能力较弱,而维度的增加则意味着计算复杂度上以数量级为单位的扩大,因此本发明为了进一步减少运算负载,提升计算效率,特地将最佳偏航角度ψ的选取由随机采样转换为根据位置计算。另外,因为无人机在飞行过程中是平移和旋转同步进行的,而且无人机有一定范围的水平视场角,为了进一步提升计算效率,所以最佳偏航角度的选取可以不需要特别高的精准度。本发明将偏航角的取值范围[-π,π)划分为36个部分,也就是说每两个相邻的方向之间的夹角是10°。
接下来根据采样得到的观测点位置p和相应的最佳偏航角ψ组合得到真正的观测点状态x=[p,ψ]Τ,其探测增益由以下公式计算:
gain=λ·Gvisible-(1-λ)·Cdist
其中λ∈[0,1]是预先设置的调整因子,用以平衡可观测深度相机视锥中的未知体素数量Gvisible和从当前位置到观测点的距离代价Cdist。为了便于计算,距离的代价函数直接取两点的欧氏距离,由下式计算得到:
其中pCx,pCy,pCz和pVx,pVy,pVz分别指无人机当前位置和经过采样得到的观测点在笛卡尔坐标系三个方向上的坐标。另外,由于具有概率完备性和在无碰撞空间中快速扩展的优点,本发明所涉及的路径规划方法是快速扩展随机树(Rapid-exploration RandomTree,RRT)的。
步骤3、规划一条从当前点前往步骤2中得到观测点的路线,并将无碰撞的路线和观测点分别作为边和顶点加入历史路线图;
在一些相对简单的场景中,无人机只需要不断地向前飞行即可完成探测任务,然而对于一些特殊的场景,例如死胡同或者狭长的走廊等,无人机在完成该区域探索之后需要返回之前存储的未探测的边界点继续开展任务。针对上述需求,为了提升无人机返回待探测边界点的速度,本发明引入了历史路线图(Historical Roadmap,HRM)。HRM在无人机探测阶段和返回待探测边界点阶段均发挥着重要作用。在探测阶段,当无人机处于不断地选择最佳观测点并前往的循环中时,被选中的观测点作为顶点被添加到HRM中,以该观测点为端点,HRM中的其他顶点为另一端点,且与HRM无碰撞的边也被添加到HRM中。
步骤4、当无人机无法在当前节点获取到新的边界点时,根据步骤3中的历史路线图规划一条前往距离最近的、待探测的边界点的路线;
在一次迭代过程中,一旦没有新的边界点被检测到,即系统自动进入返回待探测边界点阶段,此时无人机就开始根据HRM规划一条返回未探测的、距离最近的观测点。为了简化计算量,本发明选用连续线段而不是优化后的平滑曲线表示规划的路线。当在整个探测任务中找不到边界点的时候,即/>则视为探测任务完成。
本发明设计的考虑存在计算量限制、机载能源约束下的基于边界和采样的混合无人机自主探测方法与现有技术相比的优点:
(1)本发明设计了一种基于边界和采样的混合无人机自主探测方法,针对计算量限制、机载能源约束,设计的新型混合探索策略相较于传统的基于边界的方法计算量较小,相较于基于采样的方法,由于启发式思想的存在,其探索时间更少、距离更短、效率更高。
(2)本发明预设了一个比例系数k,用以平衡采样过程中无人机在当前迭代获得的边界点集合VNF和全局边界点集合VF中的采样次数。与传统的方法相比,该策略减少了无人机在某一区域的往复运动。
(3)本发明在无人机探索的过程中引入了历史路线图并不断更新,当某一次迭代并未获得新的边界点时规划一条返回待探索区域的最佳路线。与现有的方法相比,该策略返回未探测点更快,进一步提升系统的探索效率。
附图说明
图1为本发明一种基于边界和采样的混合无人机自主探测方法的流程框图;
图2为本发明在边界点检测时不同类型邻接体素的示意图;(a)为6连通(6-connection)边界点,(b)为26连通(26-connection)边界点;
图3为本发明仿真地形二维示意图;
图4为本发明在第一种场景下的仿真结果;
图5为本发明在第一种场景下的仿真结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅为本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域的普通技术人员在不付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1所示,本发明的一种基于边界和采样的混合无人机自主探测方法,该方法是不断迭代进行的,在一次迭代中的步骤为:
首先,根据提出的策略进行边界点的检测与提取;
其次,基于提取到的边界点,继续进行观测点的采样,通过计算采样边界点处的探测增益选取最佳的观测点,并规划一条基于快速扩展随机树的前往路线;所述观测点指的是无人机用于观测空间的状态点,包括位置和偏航,通过不断的采样和计算,选择最大信息增益点作为目标点,也就是下一观测点;
然后,将该观测点作为顶点添加至历史路线图中,并将与历史路线图中原有顶点连成的无碰撞边一并加入路线图中;
最后,当没有新的边界点被检测到时,历史路线图规划一条返回最近的待探测边界点的路线,当在整个探测任务中找不到边界点的时候,即视为探测完成。
整个系统的原理框图如图1所示,具体实施步骤如下:
第一步,进行边界点的检测与提取。边界点被定义为至少有一个方向与未知空间相邻,并且位于无碰撞空间的体素。一般来说,判断体素的相邻有两种方式,分别是6连通(6-connection)和26连通(26-connection),如图2所示。由于在无人机的飞行过程中会采集到大量满足条件的边界点,所以为了减少数据量,本发明选用6连通的判断方式。
在一次迭代过程中,无人机采集到的大量数据,首先与上一次迭代时的三维地图模型相比,获得位于无碰撞空间中新增的体素集合VC。然后根据无人机当前状态x和机载深度相机的具体参数,如最大感知距离dmax、垂直视场角αv和水平视场角αh等计算每一个体素v∈VC是否位于无人机的当前视锥范围内,若是则添加到体素集合VP中。由于地图中任一体素的状态是根据其占据概率确定的,有:
State(v)表示体素v的状态,有无碰撞状态Free、被占据状态Occupied和未知状态Unknown,而p(v)∈[0,1]表示体素的占据概率,通过传感器获取的深度信息叠加得到;
所以这种过滤方法可以为边界点的选取增加一个新的约束,进一步提升获得边界点的准确性。
接下来,对得到的集合VP进行最后的6-连通判断操作,如果其中的某一个体素v∈VP在一个或多个方向上与未知空间紧邻,那么则将该体素同时添加至边界点集合VF和VNF中,其中VF指的是全局边界点集合,而VNF指的是当前迭代过程中所探测到的新边界点的集合。值得一提的是,在每一次迭代正式开始时,集合VF和VNF都需要先进行初始化操作,VF需要判断内部的体素元素是否仍然满足边界点的条件,并删去不满足条件的体素,相比之下VNF的初始化就简单了许多,直接清空整个集合即可。
第二步,在上一步的基础上,继续进行观测点的采样。与传统的在距离无人机一定范围内的无碰撞空间中随机采样不同,本发明提出一种新的采样方式,通过在上一步得到的边界点集合中均匀采样,可以得到诸多边界点,进而选择最佳的观测点作为无人机接下来的目标点并前往。
具体来说,为了启发式地选择下一最佳观测点从而更加快速的完成无人机的探测任务,本发明让无人机在第一步得到的集合中均匀采样。但是单纯的在全局边界点集合VF中采样,很容易使无人机进行不断地往复运动,从而卡在某一区域内。为了解决这一问题,本发明引入了当前迭代中新得到的边界点集合VNF,通过在其中采样使无人机一直保持向着前方运动直至没有新的边界点被检测到,从而避免的局部的不断往复。本发明预先设置了一个比例系数k,用来平衡无人机在集合VNF和VF中的采样次数。对于每k次观测点的采样,有k-1次均来自集合VNF,一次来自集合VF
正如前文所述,本发明考虑的无人机状态是四维的,也就是三个方向的位置和偏航角。由于无人机的运算能力和处理能力较弱,而维度的增加则意味着计算复杂度上以数量级为单位的扩大,因此本发明为了进一步减少运算负载,提升计算效率,特地将最佳偏航角度ψ的选取由随机采样转换为根据位置计算。另外,因为无人机在飞行过程中是平移和旋转同步进行的,而且无人机有一定范围的水平视场角,为了进一步提升计算效率,所以最佳偏航角度的选取可以不需要特别高的精准度。本发明将偏航角的取值范围[-π,π)划分为36个部分,也就是说每两个相邻的方向之间的夹角是10°。
接下来根据采样得到的观测点位置p和相应的最佳偏航角ψ组合得到真正的观测点状态x=[p,ψ]Τ,其探测增益由以下公式计算:
gain=λ·Gvisible-(1-λ)·Cdist
其中λ∈[0,1]是预先设置的调整因子,用以平衡可观测深度相机视锥中的未知体素数量Gvisible和从当前位置到观测点的距离代价Cdist。为了便于计算,距离的代价函数直接取两点的欧氏距离,由下式计算得到:
其中pCx,pCy,pCz和pVx,pVy,pVz分别指无人机当前位置和经过采样得到的观测点在笛卡尔坐标系三个方向上的坐标。另外,由于具有概率完备性和在无碰撞空间中快速扩展的优点,本发明所涉及的路径规划方法是基于快速扩展随机树(Rapid-explorationRandom Tree,RRT)的。
第三步,构建并更新历史路线图。在一些相对简单的场景中,无人机只需要不断地向前飞行即可完成探测任务,然而对于一些特殊的场景,例如死胡同或者狭长的走廊等,无人机在完成该区域探索之后需要返回之前存储的未探测的边界点继续开展任务。针对上述需求,为了提升无人机返回待探测边界点的速度,本发明引入了历史路线图(HistoricalRoadmap,HRM)。HRM在无人机探测阶段和返回待探测边界点阶段均发挥着重要作用。在探测阶段,当无人机处于不断地选择最佳观测点并前往的循环中时,被选中的观测点作为顶点被添加到HRM中,以该观测点为端点,HRM中的其他顶点为另一端点,且与HRM无碰撞的边也被添加到HRM中。
第四步,规划返回待探测边界点路线。在一次迭代过程中,一旦没有新的边界点被检测到,即系统自动进入返回待探测边界点阶段,此时无人机就开始根据HRM规划一条返回未探测的、距离最近的观测点。为了简化计算量,本发明选用连续线段而不是优化后的平滑曲线表示规划的路线。当在整个探测任务中找不到边界点的时候,即/>则视为探测任务完成。
利用Ros/Gazebo进行仿真验证。其仿真地形的二维示意图如图3所示,其中图3(a)场景的大小是20×10×3m,无人机的最大飞行线速度是0.5m/s,最大转向角速度是0.75rad/s,深度传感器最大探测距离是5m,比例系数k是2,水平视场角和垂直视场角分别是90°和60°,地图分别率分别为0.4m和0.2m;图3(b)场景的大小是38×26×3m,无人机的最大飞行线速度是1m/s,最大转向角速度是0.75rad/s,深度传感器最大探测距离是8m,比例系数k是2,水平视场角和垂直视场角分别是90°和60°,地图分别率是0.4m。已探测范围和时间关系的仿真结果分别如图4、图5所示,另外在同样的仿真条件下与经典的NBVP方法进行了对比。
本发明说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。尽管为了说明的目的,已描述了本发明的示例性实施方式,但是本领域的技术人员将理解,不脱离所附权利要求中公开的发明的范围和精神的情况下,可以在形式和细节上进行各种修改、添加和替换等的改变,而所有这些改变都应属于本发明所附权利要求的保护范围,并且本发明要求保护的产品各个部门和方法中的各个步骤,可以以任意组合的形式组合在一起。因此,对本发明中所公开的实施方式的描述并非为了限制本发明的范围,而是用于描述本发明。相应地,本发明的范围不受以上实施方式的限制,而是由权利要求或其等同物进行限定。

Claims (3)

1.一种基于边界和采样的混合无人机自主探测方法,其特征在于,包括以下步骤:
步骤(1)、无人机实时采集数据,通过与上一次的地图模型对比,检测和提取新的边界点;
步骤(2)、通过在步骤(1)获取到的边界点中均匀随机采样得到最佳观测点;
所述步骤(2)中,为了启发式地选择下一最佳观测点从而更加快速地完成无人机的探测任务,引入当前迭代中新得到的边界点集合VNF,通过在其中采样使无人机一直保持向着前方运动直至没有新的边界点被检测到,从而避免的局部的不断往复;预先设置一个比例系数k,用来平衡无人机在集合VNF和VF中的采样次数;对于每k次观测点的采样,有k-1次均来自集合VNF,一次来自集合VF
将偏航角的取值范围[-π,π)划分为36个部分,也就是说每两个相邻的方向之间的夹角是10°,接下来根据采样得到的观测点位置p和相应的最佳偏航角ψ组合得到真正的观测点状态x=[p,ψ]T,其探测增益由以下公式计算:
gain=λ·Gvisible-(1-λ)·Cdist
其中λ∈[0,1]是预先设置的调整因子,用以平衡可观测深度相机视锥中的未知体素数量Gvisible和从当前位置到观测点的距离代价Cdist距离的代价函数直接取两点的欧氏距离,由下式计算得到:
其中pCx,pCy,pCz和pVx,pVy,pVz分别指无人机当前位置和经过采样得到的观测点在笛卡尔坐标系三个方向上的坐标,基于快速扩展随机树的方法进行路径规划;
步骤(3)、规划一条从当前节点前往步骤(2)中得到最佳观测点的路线,并将无碰撞的路线和最佳观测点分别作为边和顶点加入历史路线图;
步骤(4)、当无人机无法在当前节点获取到新的边界点时,根据步骤(3)中的历史路线图规划一条前往距离最近的、待探测的边界点的路线。
2.根据权利要求1所述的基于边界和采样的混合无人机自主探测方法,其特征在于:所述步骤(1)中检测和提取新的边界点,具体包括:
在一次迭代过程中,无人机采集到的大量数据,首先与上一次迭代时的三维地图模型相比,获得位于无碰撞空间中新增的体素集合VC,然后根据无人机当前状态x和机载深度相机的具体参数,包括:最大感知距离dmax、垂直视场角αv和水平视场角αh计算每一个体素v∈VC是否位于无人机的当前视锥范围内,若是则添加到体素集合VP中;地图中任一体素的状态是根据其占据概率确定的,有:
其中,State(v)表示体素v的状态,有无碰撞状态Free、被占据状态Occupied和未知状态Unknown,而p(v)∈[0,1]表示体素的占据概率,通过传感器获取的深度信息叠加得到;
接下来,对得到的集合VP进行最后的6-连通判断操作,如果其中的某一个体素v∈VP在一个或多个方向上与未知空间紧邻,那么则将该体素同时添加至边界点集合VF和VNF中,其中VF指的是全局边界点集合,而VNF指的是当前迭代过程中所探测到的新边界点的集合,在每一次迭代正式开始时,集合VF和VNF都需要先进行初始化操作,VF需要判断内部的体素元素是否仍然满足边界点的条件,并删去不满足条件的体素,VNF的初始化是直接清空整个集合即可。
3.根据权利要求1所述的一种基于边界和采样的混合无人机自主探测方法,其特征在于:所述步骤(3)中,在探测阶段,当无人机处于不断地选择最佳观测点并前往的循环中时,被选中的观测点作为顶点被添加到历史路线图中,以该观测点为端点,历史路线图中的其他顶点为另一端点,且与历史路线图无碰撞的边也被添加到历史路线图中;在一次迭代过程中,一旦没有新的边界点被检测到,即系统自动进入返回待探测边界点阶段,此时无人机就开始根据历史路线图规划一条返回未探测的、距离最近的观测点,选用连续线段而不是优化后的平滑曲线表示规划的路线,当在整个探测任务中找不到边界点的时候,即/>则视为探测任务完成;所述边界点指的是边界体素,也就是位于free空间中,且至少一个方向与unknown空间相连的体素。
CN202111048910.3A 2021-09-08 2021-09-08 一种基于边界和采样的混合无人机自主探测方法 Active CN113741523B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111048910.3A CN113741523B (zh) 2021-09-08 2021-09-08 一种基于边界和采样的混合无人机自主探测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111048910.3A CN113741523B (zh) 2021-09-08 2021-09-08 一种基于边界和采样的混合无人机自主探测方法

Publications (2)

Publication Number Publication Date
CN113741523A CN113741523A (zh) 2021-12-03
CN113741523B true CN113741523B (zh) 2024-03-19

Family

ID=78737061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111048910.3A Active CN113741523B (zh) 2021-09-08 2021-09-08 一种基于边界和采样的混合无人机自主探测方法

Country Status (1)

Country Link
CN (1) CN113741523B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114115363B (zh) * 2021-12-04 2023-07-18 中国人民解放军国防科技大学 一种基于动态目标追踪的多无人机未知室内空间探索方法
CN114995442B (zh) * 2022-06-15 2023-07-21 杭州电子科技大学 基于最佳观测点序列的移动机器人运动规划方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106842231A (zh) * 2016-11-08 2017-06-13 长安大学 一种道路边界检测及跟踪方法
CN110531760A (zh) * 2019-08-16 2019-12-03 广东工业大学 基于曲线拟合和目标点邻域规划的边界探索自主建图方法
CN112000754A (zh) * 2020-08-11 2020-11-27 珠海格力电器股份有限公司 地图构建方法、装置、存储介质及计算机设备
JP6830712B1 (ja) * 2019-11-29 2021-02-17 広東工業大学Guangdong University Of Technology ランダムサンプリング一貫性に基づく魚眼画像の有効領域抽出方法
CN113110522A (zh) * 2021-05-27 2021-07-13 福州大学 一种基于复合式边界检测的机器人自主探索方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10768623B2 (en) * 2017-12-21 2020-09-08 Intel Corporation Drone path planning
US11243540B2 (en) * 2018-05-17 2022-02-08 University Of Connecticut System and method for complete coverage of unknown environments
CN112912811B (zh) * 2018-11-21 2024-03-29 深圳市道通智能航空技术股份有限公司 一种无人机路径规划方法、装置及无人机

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106842231A (zh) * 2016-11-08 2017-06-13 长安大学 一种道路边界检测及跟踪方法
CN110531760A (zh) * 2019-08-16 2019-12-03 广东工业大学 基于曲线拟合和目标点邻域规划的边界探索自主建图方法
JP6830712B1 (ja) * 2019-11-29 2021-02-17 広東工業大学Guangdong University Of Technology ランダムサンプリング一貫性に基づく魚眼画像の有効領域抽出方法
CN112000754A (zh) * 2020-08-11 2020-11-27 珠海格力电器股份有限公司 地图构建方法、装置、存储介质及计算机设备
CN113110522A (zh) * 2021-05-27 2021-07-13 福州大学 一种基于复合式边界检测的机器人自主探索方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Hybrid Planning Method for 3D Autonomous Exploration in Unknown Environments With a UAV;Xuning Chen 等;《IEEE Transactions on Automation Science and Engineering》;20230929;全文 *
UAV Path Planning with No-Fly-Zone Constraints by Convex Optimization;Xi Chen 等;《2021 40th Chinese Control Conference (CCC)》;20210728;全文 *
一种基于高效边界探索的机器人自主建图方法;刘瑞雪 等;《广东工业大学学报》;第37卷(第05期);第38-45页 *
即时八叉图下的室内未知环境探索航迹规划;唐嘉宁 等;《电光与控制》网络首发论文;第1-4页 *

Also Published As

Publication number Publication date
CN113741523A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN111599001B (zh) 基于图像三维重建技术的无人机导航地图构建系统及方法
CN106054900B (zh) 基于深度摄像头的机器人临时避障方法
Lenac et al. Fast planar surface 3D SLAM using LIDAR
CN113741523B (zh) 一种基于边界和采样的混合无人机自主探测方法
CN109186608B (zh) 一种面向重定位的稀疏化三维点云地图生成方法
CN108958282B (zh) 基于动态球形窗口的三维空间路径规划方法
CN108280866B (zh) 道路点云数据处理方法及系统
CN108267141B (zh) 道路点云数据处理系统
CN112923933A (zh) 一种激光雷达slam算法与惯导融合定位的方法
KR20190082291A (ko) 차량 환경 맵 생성 및 업데이트 방법 및 시스템
CN113985429B (zh) 基于三维激光雷达的无人机环境扫描与重构方法
CN112184736A (zh) 一种基于欧式聚类的多平面提取方法
CN112859110B (zh) 一种基于三维激光雷达的定位导航方法
CN115790571A (zh) 基于异构无人系统相互观测的同时定位与地图构建方法
KR20180025186A (ko) 지오아크를 이용한 3차원 운송수단 국소화
CN115131514A (zh) 一种同时定位建图的方法、装置、系统及存储介质
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法
CN115855060A (zh) 一种几何基元引导的航线规划方法及装置
CN115307640A (zh) 基于改进人工势场法的无人车双目视觉导航方法
CN117523461B (zh) 一种基于机载单目相机的运动目标跟踪与定位方法
CN114593739A (zh) 基于视觉检测与参考线匹配的车辆全局定位方法及装置
Thomas et al. Delio: Decoupled lidar odometry
CN113781567B (zh) 基于三维地图生成的航拍图像目标地理定位方法
CN116679307A (zh) 基于三维激光雷达的城市轨道交通巡检机器人定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant