CN115855086A - 基于自旋转的室内场景自主重建方法、系统及介质 - Google Patents

基于自旋转的室内场景自主重建方法、系统及介质 Download PDF

Info

Publication number
CN115855086A
CN115855086A CN202211378063.1A CN202211378063A CN115855086A CN 115855086 A CN115855086 A CN 115855086A CN 202211378063 A CN202211378063 A CN 202211378063A CN 115855086 A CN115855086 A CN 115855086A
Authority
CN
China
Prior art keywords
point
robot
self
target
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211378063.1A
Other languages
English (en)
Inventor
陈垚
易任娇
朱晨阳
徐凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202211378063.1A priority Critical patent/CN115855086A/zh
Publication of CN115855086A publication Critical patent/CN115855086A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于自旋转的室内场景自主重建方法、系统及介质,本发明方法包括根据机器人在当前位置检测的深度点云信息更新二维栅格地图中的地面和障碍;基于二维栅格地图检测目标点,根据检测得到的所有目标点进行路径规划;控制机器人向规划得到的路径上的新的位置进行移动;根据二维栅格地图对信息论目标点进行优化生成局部扫描点;控制机器人进行自旋转根据不同自旋转角度下的RGB‑D图像序列进行场景重建以及传输深度点云信息。本发明在对基于信息论探索方法的基础上,结合机器人自旋转能够获取周围环境信息的特性,从而能够得到更加合适的室内场景自主重建结果,在保证完整度的同时,大大提高重建的效率和鲁棒性。

Description

基于自旋转的室内场景自主重建方法、系统及介质
技术领域
本发明涉及计算机视觉领域的室内场景的自主重建技术,具体涉及基于自旋转的室内场景自主重建方法、系统及介质。
背景技术
室内场景自主重建一直是计算机视觉领域内的一个重要研究课题,随着数字孪生技术与虚拟现实的技术被广泛应用于工农业生产、交通、服务、医疗和军事等领域,人类对室内场景的自主重建的效率和精确度提出了更高的要求,特别是在未知复杂的室内环境下,场景重建已经成为一个难点且重点的问题。
现阶段较为普遍的室内场景重建方法包括:
1)基于LiDAR的方法(张涛.FARO三维激光扫描仪的数据建模[J].内蒙古煤炭经济,2019,7.):Faro Focus作为一种激光雷达扫描仪,通过激光扫描平面来进行场景的重建。在人工的辅助下放置于室内不同位置,为室内场景提供精密的点云结果。使用LiDAR的成本过高,目前较为常见的用于扫描恢复场景的Faro Focus单套设备的售价约为40万元左右。目前存在一些使用LiDAR的SLAM方法来进行场景重建,但由于RGB-D相机仅提供环境的一个视角,而不是像LiDAR提供360度覆盖范围,这就使得基于RGB-D相机的方法本身具有天然的复杂性,同时也会带来一系列的问题,如果直接将这些SLAM方法用于配备RGB-D的机器人通常会失败。
2)基于RGB-D的方法(Newcombe R A,Izadi S,Hilliges O,et al.Kinectfusion:Real-time dense surface mapping and tracking[C]//2011 10th IEEE internationalsymposium on mixed and augmented reality.Ieee,2011:127-136.):Kinectfusion方法最先实现了体积融合框架(volumetric fusion framework),这就意味着从低成本的深度相机中获取RGB-D图片序列完成fusion进而实现场景重建变成了可能。相比于LiDAR,RGB-D相机可以更加小型化,轻量化,成本更低。但是RGB-D相机由于FOV的限制,导致感知范围小,目前大多数基于RGB-D的方法需要对场景内部进行细致的扫描,可能会影响效率和完整性。RGB-D相机FOV(视野)小,导致效率低、易陷入局部最优的问题,即:基于RGB-D的机器人在同一时间只能检测某个方位的环境信息。
3)基于Octomap的场景重建方法(Hornung A,Wurm K M,Bennewitz M,etal.OctoMap:An efficient probabilistic 3D mapping framework based on octrees[J].Autonomous robots,2013,34(3):189-206.):Octomap是一种基于八叉树的三维地图创建工具,其基于占用栅格(occupancy map)的传感器数据可以在多次测量中实现融合和更新,对比点云的数据结构,能够极大的提高空间利用率。缺点是这类方法更关注于获取场景的拓扑结构而不是精细的重建结果,因此存在对高精度的场景重建任务来说一般很少采用这种方法。
张等人(Zhang J,Zhu C,Zheng L,et al.ROSEFusion:random optimization foronline dense reconstruction under fast camera motion[J].ACM Transactions onGraphics,2021,40(4):1-17.)介绍了利用粒子群模板的随机优化方法来进行位姿优化的过程。将每一步的位姿的变化使用粒子群模板来替代,随后进行迭代优化,利用深度图投影的平均误差函数来进一步缩小粒子群的搜索范围,从而确定一个大致的位姿变化,这种方法大大提升了相机的速度上限,并在黑暗的环境中也能够取得非常好的效果。但在一些特征非常少,或者是深度图缺失严重的情况下,效果不佳。白等人(Shi B,Wang J,Chen F,etal.Information-theoretic exploration with Bayesian optimization[C]//2016IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS).IEEE,2016.)提出了一种基于贝叶斯优化的信息论自主探索方法,该方法通过查找边缘点并估计不同边缘点的熵增来计算最终目的,达到最大化信息增益的效果。
发明内容
本发明要解决的技术问题:针对现有技术的上述问题,提供一种基于自旋转的室内场景自主重建方法、系统及介质,本发明在对基于信息论探索方法的基础上,结合机器人自旋转能够获取周围环境信息的特性,从而能够得到更加合适的室内场景自主重建结果,在保证完整度的同时,大大提高重建的效率和鲁棒性。
为了解决上述技术问题,本发明采用的技术方案为:
一种基于自旋转的室内场景自主重建方法,包括:
S101,根据机器人在当前位置检测的深度点云信息更新二维栅格地图中的地面和障碍;
S102,基于二维栅格地图检测目标点,所述目标点包括基于信息论的自主探索方法生成的信息论目标点、连接房间的探索点以及场景中离障碍最远的全局扫描点;若未找到新的信息论目标点且访问队列中没有新的信息论目标点,则结束并退出;
S103,根据检测得到的所有目标点进行路径规划以生成访问队列;
S104,控制机器人向路径上新位置移动;
S105,根据二维栅格地图对信息论目标点进行优化生成局部扫描点作为新的目标点;
S106,到达目标点后控制机器人进行自旋转,根据机器人采集的RGB-D图像序列进行在线场景重建,并传输深度点云信息,跳转步骤S101。
可选地,步骤S101中更新二维栅格地图中的地面和障碍包括:将机器人在当前位置检测的深度点云的坐标从相机坐标系转换到世界坐标系,对二维的栅格地图的栅格进行遍历查看是否有深度点云坐标投影至被遍历的当前栅格上,如果有就更新被遍历的当前栅格的状态为地面或障碍。
可选地,步骤S102中基于二维栅格地图检测目标点时,信息论目标点的检测包括:
S201,遍历二维栅格地图,选取处于未知与已知边界的栅格中心点作为候选边界点;
S202,按照候选边界点之间的欧氏距离进行分组,过滤与障碍较近的候选边界点分组;
S203,模拟机器人到剩余的候选边界点查看扩展得到的未知栅格数量,并选择扩展得到的未知栅格数量最多的候选边界点作为信息论目标点。
可选地,步骤S203模拟机器人到剩余的候选边界点查看扩展得到的未知栅格数量包括:模拟机器人到剩余的候选边界点并沿四周360度方向发射射线,若射线在预设距离内接触到二维栅格地图中的障碍,则判定该摄像处于室内场景中,且将该射线在二维栅格地图中覆盖的栅格更新为地面栅格,最终根据模拟机器人到剩余的候选边界点前的栅格数量、模拟机器人到剩余的候选边界点后沿四周360度方向发射射线后的扩展的地面栅格的数量差作为扩展得到的未知栅格数量。
可选地,步骤S102中基于二维栅格地图检测目标点时,探索点的检测包括:
S301,将机器人当前位置周围的栅格的中心点作为节点,按节点之间的距离作为关联性构建无源图,如果距离超过设定值则判定节点之间不连通,反之判定节点之间连通;
S302,针对无源图中的节点对进行遍历:随机选取两个节点作为构成节点对的起始节点和目标节点,计算节点对的最短路径,并确定最短路径上经过的节点;
S303,选择被最多的最短路径所覆盖的节点作为候选探索点;
S304,模拟机器人到各个候选探索点并沿四周360度方向发射射线并判断射线是否被二维栅格地图中的障碍阻挡,从而统计各个候选探索点的射线被阻挡的数量,选取射线被阻挡的数量最少的候选探索点作为最终得到的探索点。
可选地,步骤S102中基于二维栅格地图检测目标点时,全局扫描点的检测包括:遍历二维栅格地图在当前位置的探索过程中新扩展的栅格,根据s=(d-r)/d计算新扩展的栅格的边界分数,其中r为当前栅格离最近的障碍物距离,d为深度相机感知范围,如果边界分数低于预设阈值,则将该新扩展的栅格加入候选全局扫描点。
可选地,步骤S103中根据检测得到的所有目标点进行路径规划是指将检测得到的所有目标点采用预设的路径规划算法进行路径规划,得到一条连通所有目标点的最短路径。
可选地,步骤S105包括:
S501,遍历信息论目标点周围的栅格,并根据s=(d-r)/d计算栅格的边界分数,其中r为当前栅格离最近的障碍物距离,d为深度相机感知范围;
S502,选择边界分数最小的栅格作为局部扫描点的位置。
此外,本发明还提供一种基于自旋转的室内场景自主重建系统,包括相互连接的微处理器和存储器,所述微处理器被编程或配置以执行所述基于自旋转的室内场景自主重建方法。
此外,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序用于被微处理器编程或配置以执行所述基于自旋转的室内场景自主重建方法。
和现有技术相比,本发明主要具有下述优点:
1、本发明基于二维栅格地图检测目标点时,目标点包括基于信息论的自主探索方法生成的信息论目标点、连接房间的探索点以及场景中离障碍最远的全局扫描点,从而在基于信息论的自主探索方法生成的信息论目标点的同时,通过连接房间的探索点能够找到有效的搜索路径,通过场景中离障碍最远的全局扫描点,能够使得控制机器人进行自旋转时找到到自旋转扫描的最佳目标位置,有助于扫描分支找到更多的全局最优目标位置,能够帮助机器人更有效地进行探索,同时保持扫描完整性和重建的鲁棒性。
2、本发明包括控制机器人在进行每一次探索时进行一次自旋转以模拟雷达的效果,这样能够避免收集信息不全面而导致的一些问题,结合机器人自旋转能够获取周围环境信息的特性,从而能够得到更加合适的室内场景自主重建结果。由于加入了自旋转机制,这种方式可以使得复杂的机器人运动轨迹变得简单,大大提升了重建模块的鲁棒性。
附图说明
图1为本发明实施例方法的基本流程示意图。
图2为本发明实施例中检测信息论目标点时的候选边界点分组示意图。
图3为本发明实施例中检测全局扫描点时的实例示意图。
图4为本发明实施例中检测局部扫描点时的实例示意图。
图5为本发明实施例中探索点检测示意图。
图6为本发明实施例中有探索点之后机器人的探索方式的变化。
具体实施方式
如图1所示,本实施例基于自旋转的室内场景自主重建方法包括:
S101,根据机器人在当前位置检测的深度点云信息更新二维栅格地图中的地面和障碍;
S102,基于二维栅格地图检测目标点,所述目标点包括基于信息论的自主探索方法生成的信息论目标点、连接房间的探索点以及场景中离障碍最远的全局扫描点;若未找到新的信息论目标点且访问队列中没有新的信息论目标点,则结束并退出;
S103,根据检测得到的所有目标点进行路径规划以生成访问队列;
S104,控制机器人向路径上新位置移动;
S105,根据二维栅格地图对信息论目标点进行优化生成局部扫描点作为新的目标点;
S106,到达目标点后控制机器人进行自旋转,根据机器人采集的RGB-D图像序列进行在线场景重建,并传输深度点云信息,跳转步骤S101。
其中,步骤S101中更新二维栅格地图中的地面和障碍包括:将机器人在当前位置检测的深度点云的坐标从相机坐标系转换到世界坐标系,对二维的栅格地图的栅格进行遍历查看是否有深度点云坐标投影至被遍历的当前栅格上,如果有就更新被遍历的当前栅格的状态为地面或障碍。该方法为公知方法,具体实现详情可参见文献:Zhang J,Zhu C,Zheng L,et al.ROSEFusion:random optimization for online dense reconstructionunder fast camera motion[J].ACM Transactions on Graphics,2021,40(4):1-17.。
基于信息论的自主探索方法是机器人自主探索未知场景中非常重要的研究方向,其核心思想是:选取信息增益最大的一个位置作为下一步探索行动的目标点。二维栅格地图的香农熵H(m)可以定义为:
H(m)=-∑ijp(mi,j)logp(mi,j),
其中,i,j代表二维栅格地图的横纵序列,p(mi,j)代表地图上坐标为i,j的栅格被障碍物占用的概率。使用函数I(m,xi)来估计机器人到xi位置处的信息增益,函数I(m,xi)可以由下面的式子计算:
I(m,xi)=H(m)-H(m|xi),
其中,(m|xi)代表机器人处于xi位置的信息熵。信息论的自主探索方法的目标就是选择最优的位置x*来最大化信息增益,可表示为:
x*=argmaxI(m,xi)xi∈Saction
其中,Saction表示机器人可以前往的目标点的子集。因此,信息论目标点通常是信息增益最大的位置。
本实施例步骤S102中基于二维栅格地图检测目标点时,信息论目标点的检测包括:
S201,遍历二维栅格地图,选取处于未知与已知边界的栅格中心点作为候选边界点;
S202,按照候选边界点之间的欧氏距离进行分组,过滤与障碍较近的候选边界点分组;
S203,模拟机器人到剩余的候选边界点查看扩展得到的未知栅格数量,并选择扩展得到的未知栅格数量最多的候选边界点作为信息论目标点。本实施例中,步骤S203模拟机器人到剩余的候选边界点查看扩展得到的未知栅格数量包括:模拟机器人到剩余的候选边界点并沿四周360度方向发射射线,若射线在预设距离内接触到二维栅格地图中的障碍,则判定该摄像处于室内场景中,且将该射线在二维栅格地图中覆盖的栅格更新为地面栅格,最终根据模拟机器人到剩余的候选边界点前的栅格数量、模拟机器人到剩余的候选边界点后沿四周360度方向发射射线后扩展的地面栅格的数量差作为扩展得到的未知栅格数量。
大多数信息论方法都基于Octomap,可能不适用于栅格地图。因此,我们需要实现一种基于栅格地图实现的信息论探索方法。我们使用函数I(m,p)表示当前地图的已知网格数。然后我们选择p′作为机器人的下一个探索目标。则该过程中的信息增益G(m,p′)可以表示为:
G(m,p′)=I(m,p′)-I(m,p),
其中m表示整个环境的地图,p是机器人在2D地图中的当前位置。我们需要找到最佳位置p′,以最大化G的值,其数学表示为:
p*=argmax G(m,p),
在这一式子中,p表示机器人附近的地面栅格。限制p的选择范围可以确保机器人可以在下一步探索中到达位置p*。为了找到最佳位置p*,我们需要先找到候选边界点。我们首先检查所有地面栅格,如果其中一个位于已知地面和未知区域之间,我们将其设置为候选边界点。为了提高候选边界点的质量,我们需要将所有临时候选点按距离分组,并删除一些离障碍太近的候选点。然后,我们需要预测机器人前往每个候选点过程中的信息增益。具体地说,我们模拟将机器人移动到该候选位置,并计算在此行程中扩展的未知栅格的数量。我们想要得到的最终目标是扩展了最多未知栅格的那个边缘候选点。图2显示了本实施例中发现的候选边界点,不同颜色的圆圈代表不同的边界组。圈越大,同一组中的边界点越多。候选点是每个候选边界点分组的局部最优边界。
本实施例中,步骤S102中包含探索分支,用于实现探索点的检测。与扫描分支类似,探索分支是为了发现局部已知地图上的探索点。探索点是一类特殊的位置,他是为了辅助机器人发现更多的扫描点而设置的,在一般情况下,这一类位置会出现在室内场景的走廊或者门口处的位置。本实施例中,步骤S102中基于二维栅格地图检测目标点时,探索点的检测包括:
S301,将机器人当前位置周围的栅格的中心点作为节点,按节点之间的距离作为关联性构建无源图,如果距离超过设定值则判定节点之间不连通,反之判定节点之间连通;
S302,针对无源图中的节点对进行遍历:随机选取两个节点作为构成节点对的起始节点和目标节点,计算节点对的最短路径,并确定最短路径上经过的节点;
S303,选择被最多的最短路径所覆盖的节点作为候选探索点;
S304,模拟机器人到各个候选探索点并沿四周360度方向发射射线并判断射线是否被二维栅格地图中的障碍阻挡,从而统计各个候选探索点的射线被阻挡的数量,选取射线被阻挡的数量最少的候选探索点作为最终得到的探索点。
单纯的基于扫描点的优化的探索方法也存在问题。在少数情况下,机器人会落入局部最优区域。为了脱离这种情况,我们通过寻找探索点来发现更多的扫描点。在深度全景重建工作中,我们发现手动选择的旋转点通常分为以下两种类型:一种是扫描点。另一种通常位于房间的走廊入口或门口,其功能是连接多个开放区域。本实施例中使用谱聚类的方法来寻找探索点。我们将每个栅格定义为一个节点。随后随机选择机器人周围的两个节点作为起始节点(Ns)和目标节点(Nt),并计算Ns和Nt之间的最短路径(使用Floyd无源图算法),并记录该路径覆盖的所有节点。我们重复上述操作,并选择被最多路径覆盖的节点作为探索点的候选。图5显示了上述方法的简单版本。然而,这些候选者节点仍然存在不足,因为位于房间角落的节点也可能会被大量最短路径覆盖。因此,我们引入了介绍视线(射线)范围的概念。如果候选者周围很少有视线被障碍物遮挡,则候选者将被用作最终探索点。我们绘制出了一种简易的情况,如图5所示,绿色节点是机器人附近的地面节点。黄色和蓝色圆点表示随机选择的节点对,数字表示当前节点通过的路径数。其中红色的点即为探索点的候选。图6展示了有探索点之后机器人的探索方式的变化,其中(a)显示了落入局部最优区域的示例。首先,机器人将前往由红点标记的信息理论目标。由于最大信息增益位置的行为被重新优化,机器人将中途返回蓝点位置。红色虚线表示机器人处于局部最优困境时的运行轨迹。(b)在实验中,该系统可以在探测点的帮助下探测整个场景,并且不会将临时目标改变到另一个位置,机器人将沿着红色虚线到达探测点进行后续探测。
本实施例中,步骤S102中包含扫描分支,用于实现全局扫描点的检测。在探索全局扫描点位置时,我们检查在当前行程中最新的被扩展的所有地面栅格。为了获得我们想要的全局开放区域(如图3所示,由红色矩形包围的部分表示当前检测到的障碍物。开放区域用紫色圆点标记,这是距离障碍物最远的点之一),我们需要比较所有周围新扩展地面栅格的边界分数,并选择局部最小的栅格作为开放区域。最后,我们将开放区域的位置添加到后续探索的序列中。同时,在后续探索中,我们将始终关注这些开放区域栅格的状态。随着探索过程的不断进行,越来越多的未知栅格被标记为他对应的状态,我们之前所确定的开放区域栅格,在当前的情况下,也存在可能定位在障碍附近的风险。为了解决这个问题,我们规定,如果新障碍物出现在开放区域栅格的特定范围内,一个可行的解决方案是通过使用后续局部优化来优化这些开放区域的栅格,或者从后续行程中删除它。步骤S102中基于二维栅格地图检测目标点时,全局扫描点的检测包括:遍历二维栅格地图在当前位置的探索过程中新扩展的栅格,根据s=(d-r)/d计算新扩展的栅格的边界分数,其中r为当前栅格离最近的障碍物距离,d为深度相机感知范围,如果边界分数低于预设阈值,则将该新扩展的栅格加入候选全局扫描点。扫描分支是该方法衍生出的一条分支功能,目的是发现局部已知二维地图上的扫描点的位置。有关扫描点的定义是:在场景内部适合作为机器人自旋转的位置来进行大范围的场景重建。这些位置通常会有以下特点:周围环境比较宽阔,遮挡视线的障碍物较少。我们需要用边界得分来衡量每一个栅格的宽阔程度。根据边界得分的计算公式可知,边界得分与当前栅格离最近的障碍物距离r呈负相关,距离越近,得分越高。
本实施例中,步骤S103中根据检测得到的所有目标点进行路径规划是指将检测得到的所有目标点采用预设的路径规划算法进行路径规划,得到一条连通所有目标点的最短路径。需要说明的是,本实施例中采用的预设的路径规划算法具体为TSP路径规划算法,此外也可以根据需要采用其他路径规划算法,在此不再赘述。
局部扫描点的位置检测则与信息论设置的目标点有关:在探索过程中,视线会被障碍物遮挡,因此在很多情况下,机器人无法获得目标周围的整个环境信息。这将导致机器人的目标规划存在一些问题。例如,将目标设置在未知障碍物附近。为了减少上述问题的影响,我们设计了一种局部目标点优化方法。当机器人逐渐接近目标时,机器人开始进入目标所在的房间,机器人将观察目标周围的环境。为了确保场景重建的鲁棒性,如果目标不满足开放区域的条件(超出边界分数的阈值),我们需要将机器人的目标位置修改到附近最宽阔的地方。图3显示了这个优化的过程。其中,(a)为信息论的方法生成一个临时目标,该目标设置在墙附近。(b)为系统获得局部场景的完整环境,并将目标优化为更宽阔的位置。具体地,本实施例中步骤S105包括:
S501,遍历信息论目标点周围的栅格,并根据s=(d-r)/d计算栅格的边界分数,其中r为当前栅格离最近的障碍物距离,d为深度相机感知范围;
S502,选择边界分数最小的栅格作为局部扫描点的位置。
为了对本实施例方法进行验证,本实施例中针对不同场景对本实施例方法(ours)和现有方法的基于张量场、贝叶斯优化进行了对比测试,并得到了测试结果如表1和表2所示。
表1:重建比率测试结果。
Figure BDA0003927576120000081
表2:重建误差测试结果。
Figure BDA0003927576120000082
/>
Figure BDA0003927576120000091
表1和表2中,括号内的数字采用了控制变量法(控制其他的数据大致相同的情况下对某一数据进行比较)进行比较,重建比率是控制了时间大致相同,重建误差是控制了重建比率大致相同的情况下进行对比。而根据表1和表2可知,本实施例方法(ours)和现有的基于张量场、贝叶斯优化方法相比,本实施例方法(ours)在扫描的完整性方面有非常大的领先。图6为本实施例中的重建效果图。参见图6可知,本实施例方法能够实现了高质量的场景重建,与其它基于RGB-D相机的方法相比,本实施例方法获得了比它们更完整的扫描结果,这得益于我们的探索方法与自旋转的结合。
综上所述,本实施例方法基于信息论自主探索方法并与机器人的自旋转结合,来达到提升重建效率和精度的目的。本实施例方法只使用RGB-D相机进行探索的操作,通过机器人的自旋转克服视野FOV限制,增强了机器人的全局感知能力。本实施例方法自旋转的引入可以降低路径优化的复杂性,同时易于重建模块的位姿估计过程,提高重建的精度与鲁棒性。结合优化后的信息论方法,能够大大提升探索的效率。本实施例方法中机器人只需使用配置RGB-D相机的机器人进行探索和重建,相比于基于Lidar的方案,成本更低。
此外,本实施例还提供一种基于自旋转的室内场景自主重建系统,包括相互连接的微处理器和存储器,微处理器被编程或配置以执行前述基于自旋转的室内场景自主重建方法。此外,本实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,计算机程序用于被微处理器编程或配置以执行前述基于自旋转的室内场景自主重建方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可读存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于自旋转的室内场景自主重建方法,其特征在于,包括:
S101,根据机器人在当前位置检测的深度点云信息更新二维栅格地图中的地面和障碍;
S102,基于二维栅格地图检测目标点,所述目标点包括基于信息论的自主探索方法生成的信息论目标点、连接房间的探索点以及场景中离障碍最远的全局扫描点;若未找到新的信息论目标点且访问队列中没有新的信息论目标点,则结束并退出;
S103,根据检测得到的所有目标点进行路径规划以生成访问队列;
S104,控制机器人向路径上新位置移动;
S105,根据二维栅格地图对信息论目标点进行优化生成局部扫描点作为新的目标点;
S106,到达目标点后控制机器人进行自旋转,根据机器人采集的RGB-D图像序列进行在线场景重建,并传输深度点云信息,跳转步骤S101。
2.根据权利要求1所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S101中更新二维栅格地图中的地面和障碍包括:将机器人在当前位置检测的深度点云的坐标从相机坐标系转换到世界坐标系,对二维的栅格地图的栅格进行遍历查看是否有深度点云坐标投影至被遍历的当前栅格上,如果有就更新被遍历的当前栅格的状态为地面或障碍。
3.根据权利要求1所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S102中基于二维栅格地图检测目标点时,信息论目标点的检测包括:
S201,遍历二维栅格地图,选取处于未知与已知边界的栅格中心点作为候选边界点;
S202,按照候选边界点之间的欧氏距离进行分组,过滤与障碍较近的候选边界点分组;
S203,模拟机器人到剩余的候选边界点查看扩展得到的未知栅格数量,并选择扩展得到的未知栅格数量最多的候选边界点作为信息论目标点。
4.根据权利要求3所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S203模拟机器人到剩余的候选边界点查看扩展得到的未知栅格数量包括:模拟机器人到剩余的候选边界点并沿四周360度方向发射射线,若射线在预设距离内接触到二维栅格地图中的障碍,则判定该摄像处于室内场景中,且将该射线在二维栅格地图中覆盖的栅格更新为地面栅格,最终根据模拟机器人到剩余的候选边界点前的栅格数量、模拟机器人到剩余的候选边界点后沿四周360度方向发射射线后的扩展的地面栅格的数量差作为扩展得到的未知栅格数量。
5.根据权利要求1所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S102中基于二维栅格地图检测目标点时,探索点的检测包括:
S301,将机器人当前位置周围的栅格的中心点作为节点,按节点之间的距离作为关联性构建无源图,如果距离超过设定值则判定节点之间不连通,反之判定节点之间连通;
S302,针对无源图中的节点对进行遍历:随机选取两个节点作为构成节点对的起始节点和目标节点,计算节点对的最短路径,并确定最短路径上经过的节点;
S303,选择被最多的最短路径所覆盖的节点作为候选探索点;
S304,模拟机器人到各个候选探索点并沿四周360度方向发射射线并判断射线是否被二维栅格地图中的障碍阻挡,从而统计各个候选探索点的射线被阻挡的数量,选取射线被阻挡的数量最少的候选探索点作为最终得到的探索点。
6.根据权利要求1所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S102中基于二维栅格地图检测目标点时,全局扫描点的检测包括:遍历二维栅格地图在当前位置的探索过程中新扩展的栅格,根据s=(d-r)/d计算新扩展的栅格的边界分数,其中r为当前栅格离最近的障碍物距离,d为深度相机感知范围,如果边界分数低于预设阈值,则将该新扩展的栅格加入候选全局扫描点。
7.根据权利要求1所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S103中根据检测得到的所有目标点进行路径规划是指将检测得到的所有目标点采用预设的路径规划算法进行路径规划,得到一条连通所有目标点的最短路径。
8.根据权利要求1所述的基于自旋转的室内场景自主重建方法,其特征在于,步骤S105包括:
S501,遍历信息论目标点周围的栅格,并根据s=(d-r)/d计算栅格的边界分数,其中r为当前栅格离最近的障碍物距离,d为深度相机感知范围;
S502,选择边界分数最小的栅格作为局部扫描点的位置。
9.一种基于自旋转的室内场景自主重建系统,包括相互连接的微处理器和存储器,其特征在于,所述微处理器被编程或配置以执行权利要求1~8中任意一项所述基于自旋转的室内场景自主重建方法。
10.一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其特征在于,所述计算机程序用于被微处理器编程或配置以执行权利要求1~8中任意一项所述基于自旋转的室内场景自主重建方法。
CN202211378063.1A 2022-11-04 2022-11-04 基于自旋转的室内场景自主重建方法、系统及介质 Pending CN115855086A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211378063.1A CN115855086A (zh) 2022-11-04 2022-11-04 基于自旋转的室内场景自主重建方法、系统及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211378063.1A CN115855086A (zh) 2022-11-04 2022-11-04 基于自旋转的室内场景自主重建方法、系统及介质

Publications (1)

Publication Number Publication Date
CN115855086A true CN115855086A (zh) 2023-03-28

Family

ID=85662525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211378063.1A Pending CN115855086A (zh) 2022-11-04 2022-11-04 基于自旋转的室内场景自主重建方法、系统及介质

Country Status (1)

Country Link
CN (1) CN115855086A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117470253A (zh) * 2023-12-28 2024-01-30 中国人民解放军国防科技大学 基于张量场的机器人路径规划方法、装置、设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117470253A (zh) * 2023-12-28 2024-01-30 中国人民解放军国防科技大学 基于张量场的机器人路径规划方法、装置、设备及介质
CN117470253B (zh) * 2023-12-28 2024-03-22 中国人民解放军国防科技大学 基于张量场的机器人路径规划方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
US11276191B2 (en) Estimating dimensions for an enclosed space using a multi-directional camera
CN112525202A (zh) 一种基于多传感器融合的slam定位导航方法及系统
CN110801180B (zh) 清洁机器人的运行方法及装置
Delage et al. Automatic single-image 3d reconstructions of indoor manhattan world scenes
Hoppe et al. Photogrammetric camera network design for micro aerial vehicles
US8896660B2 (en) Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
Lin et al. Mapping and Localization in 3D Environments Using a 2D Laser Scanner and a Stereo Camera.
Kim et al. UAV-UGV cooperative 3D environmental mapping
Park et al. Probabilistic surfel fusion for dense LiDAR mapping
Kojima et al. To learn or not to learn: Analyzing the role of learning for navigation in virtual environments
CN114494329B (zh) 用于移动机器人在非平面环境自主探索的导引点选取方法
CN115855086A (zh) 基于自旋转的室内场景自主重建方法、系统及介质
Sharma et al. Proxmap: Proximal occupancy map prediction for efficient indoor robot navigation
Schwertfeger Robotic mapping in the real world: Performance evaluation and system integration
CN117408935A (zh) 障碍物检测方法、电子设备和存储介质
Basiri et al. Improving robot navigation and obstacle avoidance using Kinect 2.0
CN112505723A (zh) 一种基于导航点选择的三维地图重建方法
Lieret et al. Automated exploration, capture and photogrammetric reconstruction of interiors using an autonomous unmanned aircraft
Yang et al. Automatic reconstruction of building-scale indoor 3D environment with a deep-reinforcement-learning-based mobile robot
JP3095406B2 (ja) 室内3次元モデル作成方法とその装置
CN117058358B (zh) 一种场景边界检测方法和移动平台
Priyasad et al. Point cloud based autonomous area exploration algorithm
Jing Simulation Analysis of Fire-Fighting Path Planning Based On SLAM
Wu et al. Efficient UAV flight planning for LOD2 city model improvement
Li et al. Bionic Visual-based Data Conversion for SLAM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination