CN111413970A - 超宽带与视觉融合的室内机器人定位与自主导航方法 - Google Patents

超宽带与视觉融合的室内机器人定位与自主导航方法 Download PDF

Info

Publication number
CN111413970A
CN111413970A CN202010193177.3A CN202010193177A CN111413970A CN 111413970 A CN111413970 A CN 111413970A CN 202010193177 A CN202010193177 A CN 202010193177A CN 111413970 A CN111413970 A CN 111413970A
Authority
CN
China
Prior art keywords
robot
positioning
information
ultra
wideband
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010193177.3A
Other languages
English (en)
Inventor
刘凯燕
金杰
何政蕊
郭如意
姜诗祺
陈志华
周梦伊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010193177.3A priority Critical patent/CN111413970A/zh
Publication of CN111413970A publication Critical patent/CN111413970A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Abstract

本发明公开一种超宽带与视觉融合的室内机器人定位与自主导航方法,包括以下步骤:(1)通过UWB定位系统获取并解算机器人绝对位置信息;(2)通过深度相机获取机器人的相对位置信息后;再通过融合定位方式得到机器人的精确位置信息;(3)通过避障导航模块获取方向信息控制驱动机器人完成导航;具体包括:(301)通过目标检测网络获取障碍物信息;(302)通过强化学习训练机器人完成避障导航。

Description

超宽带与视觉融合的室内机器人定位与自主导航方法
技术领域
本发明涉及室内机器人定位与导航技术领域,特别是涉及一种超宽带与视觉融合的室内机器人定位与自主导航方法。
背景技术
室内定位导航解决的是导航技术最后一公里的问题,应用广泛,尤其在大型复杂的室内环境中,如博物馆、机场、超市、医院、地下矿井等区域,人们对位置服务有迫切需求。但是由于室内环境复杂,易受到遮挡和多径效应的影响,因此,获取精确的位置信息是当前的研究热点与难点。
超宽带(Ultra Wide Band,UWB)定位技术是一种基于极窄脉冲无线技术,UWB射频信号与生俱来的物理特性使得UWB技术从一开始就被明确定义:能够实现实时、超精确、超可靠的定位和通信。它能够非常准确地测量无线电信号的飞行时间,从而实现厘米精度的距离/位置测量。UWB定位系统的精度可以达到15cm,测距范围达150m,数据更新频率最快可以达到10Hz。但是UWB定位技术的缺点是易受非视距误差的影响,室内环境下障碍物较为密集,移动标签与基站之间的信号无法直线传播,需要经过反射和衍射才能到达接收端,从而无法估算出准确的传播距离。
自主定位导航是机器人实现智能化的前提之一,是赋予机器人感知和行动能力的关键因素。机器人实现自主定位导航,需要对周围环境进行分析、判断和选择,规划路径,进而完成导航任务。目前,自主定位导航技术有多种,视觉定位导航技术因其简单方便在各个领域中广泛应用。
视觉定位导航主要借助视觉传感器完成,机器人借助单目、双目摄像头、深度摄像机、视频信号数字化设备或基于DSP(Digital Signal Processing)的快速信号处理器等其他外部设备获取图像,然后对周围的环境进行光学处理,将采集到的图像信息进行压缩,反馈到由神经网络和统计学方法构成的学习子系统,然后由子系统将采集到的图像信息与机器人的实际位置联系起来,完成定位。
UWB定位技术是一种绝对定位方式,可以获得三维空间的坐标信息,视觉定位是一种相对定位方式。因此,将两种不同信息源的数据融合在一起,可以实现优势互补,提供鲁棒性更好、精度更高的定位信息。
深度强化学习适合于复杂环境下的连续决策任务,因此非常适合解决机器人问题,近几年,在机器人抓取、导航等任务中研究非常广泛。因此,结合深度强化学习可以完成移动机器人的导航控制问题,实现自主导航。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种超宽带与视觉融合的室内机器人定位与自主导航方法,通过采用UWB技术与视觉信息融合的方式,达到了优势互补的效果,实现了高精度定位,同时将获取的位置信息与障碍物信息作为先验知识,结合深度强化学习模型,实现无地图式的机器人自主导航,准确率高,鲁棒性好,且易于实现,可以应用到医疗,养老,商场等多个领域。
本发明的目的是通过以下技术方案实现的:
一种超宽带与视觉融合的室内机器人定位与自主导航方法,包括以下步骤:
(1)通过UWB定位系统获取并解算机器人绝对位置信息;
(2)通过深度相机获取机器人的相对位置信息后;再通过融合定位方式得到机器人的精确位置信息;
(3)通过避障导航模块获取方向信息控制驱动机器人完成导航;具体包括:
(301)通过目标检测网络获取障碍物信息;在避障导航模块中,将RGB-D相机获取的图像信息进行特征提取,放入到目标检测网络中检测出当前视图中的目标物体,然后根据当前图像的深度信息计算出目标物体与移动机器人的距离,由此得到当前的障碍物信息
(302)通过强化学习训练机器人完成避障导航;在不依赖地图信息情况下,将得到的精确位置信息与障碍物信息作为先验知识,输入到深度强化学习模型—A3C(Asynchronous Advantage Actor-Critic)算法框架中,将速度与转角的数值作为控制输出,然后送入到机器人微控制器中,驱动输出下一步的动作,完成机器人的自主导航。
进一步的,步骤(1)中UWB定位系统由4个固定的基站点和1个可移动的标签点组成;将4个基站固定放置在房间的四个角,将1个UWB标签放置在移动机器人上;UWB定位系统通过组合标签点到四个基站的距离,最终计算出标签点在三维空间的坐标。
进一步的,步骤(2)中移动机器人上装有RGB-D相机,用于直接获取空间点的深度信息,从而根据深度信息得到每张图片中每个像素点的3d位置。
进一步的,步骤(2)中的融合定位方式为:
(201)以UWB定位系统在定位过程中所使用的世界坐标系作为全局坐标系,将深度相机获取的相对位置信息经过空间变换,转换到世界坐标系下;
(202)将两个位置坐标输入到一个3层(2×3×1)神经网络中进行数据融合。
进一步的,所述目标检测网络包括YOLO、Faster-RCNN
与现有技术相比,本发明的技术方案所带来的有益效果是:
1.本发明融合UWB定位技术与视觉定位技术,弥补UWB定位技术易受非视距的影响,可以实现厘米级别的定位精度,得到更精确的定位。
2.本发明将位置信息和障碍物信息作为先验知识,结合深度强化学习模型进行机器人导航,实现无地图式的自主导航。
3.本方法适用于当前各类室内机器人定位与导航应用,尤其是在需要精确定位的复杂的室内场景中,比如商场、博物馆、医院、地下矿井等区域,鲁棒性强,稳定性好。同时本发明适用于无地图式的复杂场景中,可以实现自主导航。
附图说明
图1是UWB室内定位示意图。
图2是图片坐标系与相机坐标系的关系示意图。
图3是强化学习框架图。
图4是机器人融合定位与导航框架图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种超宽带与视觉融合的室内机器人定位与自主导航方法。该方案整体框架如图4所示。硬件结构主要分为两部分,UWB系统与移动机器人。方案主体围绕移动机器人展开。
步骤1:通过UWB定位技术获取并解算机器人绝对位置信息。
本实施例中UWB定位系统由4个固定的基站点和1个可移动的标签点组成。具体分布如图1所示。本实施例中将4个基站固定放置在房间的四个角,将1个UWB标签放置在移动机器人上。系统通过组合标签点到四个基站的距离,从而计算出标签点在三维空间的坐标。
本实施例使用TOF的测距方式,飞行时间法(Timeofflight,TOF)是一种双向测距技术,它通过测量UWB信号在基站与标签之间往返的飞行时间来计算距离。基站与标签点之间的距离表示为:
dat=c(tt-ta) (1)
其中,c为光速,tt为标签信号发射时间,ta为基站信号接收时间。
标签与基站之间的距离di(i=1,2,3,4)与标签在世界坐标系中的坐标位置有如下关系:
Figure BDA0002416659870000041
其中,(xi,yi,zi),(i=1,2,3,4)是基站的已知位置,(x0,y0,z0)为待求解的标签点位置。
三个未知数和四个表达式(非线性相关)的方程无法直接求解,因此采用最小均方误差估计的方式求解:
Figure BDA0002416659870000042
其中,
Figure BDA0002416659870000043
为最小均方误差情况下标签点的估计位置。由此,获得了t时刻通过UWB定位技术解算获得的机器人在三维空间的估计位置。
步骤2:通过融合定位模块得到机器人的精确位置信息。
步骤(201):通过深度相机获取机器人的相对位置信息。
移动机器人上装有RGB-D相机,可直接获取空间点的深度信息,从而根据深度信息得到每张图片中每个像素点的3d位置。
具体流程为,首先标定相机,得到相机的内参与外参,然后设置坐标系如图2所示。其中,o'-uv是图片坐标系,o-xyz是相机坐标系,假设图片中的点为(u,v),对应的三维点位置为(x,y,z),则二者之间的转换关系为:
Figure BDA0002416659870000044
其中,fx,fy代表焦距,cx,cy代表主点坐标(相对于成像平面),l为尺度因子,表示从相机光心出去的射线都会落在成像平面的同一个点上。在RGB-D相机中,从深度图中得到的距离dep(u,v)与真实距离相差一个倍数s,因此得到尺度因子l为:
Figure BDA0002416659870000045
那么解算三维点位置为:
Figure BDA0002416659870000051
完成相机标定后,可以得到cx,cy,fx,fy,l的值。由此得到了通过视觉深度信息转换的机器人的相对位置信息。
步骤(202):通过融合定位获取机器人的精确位置信息。
由于UWB定位易受到非视距误差的影响,本实施例采取两种定位技术融合的方式来进行精确定位,采用视觉相对位置信息进行辅助定位。具体的融合方式为:
首先以UWB定位过程中所使用的世界坐标系作为全局坐标系,将视觉解算出的相对位置信息经过空间变换,转换到世界坐标系下。
然后将两个位置坐标输入到一个3层(2×3×1)人工神经网络(ArtificialNeural Network)中进行数据融合,神经网络具有较强的容错性和自组织、自学习及自适应能力,能够实现复杂的映射;神经网络还具有强大的非线性处理能力,能够很好的满足数据融合技术的要求。
步骤3:通过避障导航模块获取方向信息控制驱动机器人完成导航。
步骤(301):通过目标检测网络获取障碍物信息;
在避障导航模块中,将RGB-D相机获取的图像信息进行特征提取,放入到目标检测网络如YOLO、Faster-RCNN等中检测出当前视图中的目标物体,然后根据图像的深度信息计算出目标物体与移动机器人的距离,由此得到当前的障碍物信息。
步骤(302):通过强化学习训练机器人完成避障导航;
在不依赖地图信息情况下,将得到的精确位置信息与障碍物信息作为先验知识,输入到深度强化学习模型中,将速度与转角的数值作为控制输出,然后送入到机器人微控制器中,驱动输出下一步的动作,完成机器人的自主导航。
深度强化学习DRL将深度学习(Deep Learning,DL)与强化学习(ReinforcementLearning,RL)进行了融合,其中DL主要负责利用神经网络的感知功能对输入的未知环境状态提取特征,实现环境状态到状态动作值函数的拟合;而RL则负责根据深度神经网络的输出和一定的探索策略完成决策,从而实现状态到动作的映射,其能较好地满足机器人的移动需求。本实施例使用的深度强化学习模型为--A3C(Asynchronous Advantage Actor-Critic)算法框架。
机器人导航本质是机器人(Agent)与环境的交互任务,在这个任务中机器人在时刻t从一组设定的运动动作中,比如前进、后退、左转、右转等,选择一个动作At={1,...,K},从一个状态St转移到另一个状态St+1,设定奖励规则,从环境获得数值型奖励(Reward)R,动作(Action)指令被传递给机器人进行控制驱动,完成与环境的交互,即为一个强化学习过程,强化学习框架如图3所示。
具体地,将每个时刻RGB-D深度图像作为马尔可夫状态,故采集的深度图像集合作为马尔可夫状态空间。在构建状态空间过程中,使用基于神经网络的A3C(AsynchronousAdvantage Actor-Critic)算法进行训练,将深度图像作为机器人的控制输入,将机器人的线速度与角速度作为输出来控制机器人进行运动规划,使得机器人可以在一个连续的动作空间中选择接下来要做的动作。除此之外,制定奖励值R的给予规则,在机器人的运动过程中,根据是否发生碰撞给予机器人奖励,若是碰撞就给予较大的负奖励值;结合障碍物信息,离障碍物越近则给予越小的奖励值;相反的,若是机器人未碰到障碍物,便给予正奖励值,以鼓励无碰撞运动;结合精确位置信息,离终点越近则给予越大的奖励值,以鼓励选择最短路径运动。
在Actor-Critic算法的框架中,“Actor”负责Policy Gradient的学习策略Q(s,a),而“Critic”作为策略评价估计的值函数V(s)。策略和值函数互为依赖,相互影响,在训练过程中迭代优化。在A3C算法中,定义优势函数A(s,a)表示在状态s下选择的动作a的好坏程度。
A(s,a)=Q(s,a)-V(s) (7)
由于在A3C中实际上并没有计算Q值,在此使用折扣回报R作为Q值的估计值。
R=rt+γ rt-12rt-2 (8)
其中,rt表示时刻t时的回报,γ为权重值。则优势函数为:
A(s,a)=R-V(s) (9)
这时,即可得到值损失为折扣回报与状态值之间的均方差:
值损失(Lv)=∑(R-V(s))2 (10)
则策略损失定义为:
策略损失(Lp)=log(π(s))A(s,a)H(π) (11)
其中,π(s)为状态函数,根据状态的输入来估计策略的选择。A(s,a)为优势函数,H(π)为熵,用于确保策略得到充分探索。熵值越小,某一行为将会获得比其他行为更高的概率,则机器人就会选择概率最大的行为。在损失函数中增加熵将会鼓励智能体进一步探索,从而避免陷入局部最优。
结合异步的优势演员评论家算法(A3C)进行训练,克服了机器人输出有限的执行动作的局限性,使得机器人可以在连续的速度与方向角度数值区间中输出执行动作。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。

Claims (5)

1.超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,包括以下步骤:
(1)通过UWB定位系统获取并解算机器人绝对位置信息;
(2)通过深度相机获取机器人的相对位置信息后;再通过融合定位方式得到机器人的精确位置信息;
(3)通过避障导航模块获取方向信息控制驱动机器人完成导航;具体包括:
(301)通过目标检测网络获取障碍物信息;在避障导航模块中,将RGB-D相机获取的图像信息进行特征提取,放入到目标检测网络中检测出当前视图中的目标物体,然后根据当前图像的深度信息计算出目标物体与机器人的距离,由此得到当前的障碍物信息
(302)通过强化学习训练机器人完成避障导航;在不依赖地图信息情况下,将得到的精确位置信息与障碍物信息作为先验知识,输入到深度强化学习模型中,将速度与转角的数值作为控制输出,然后送入到机器人微控制器中,驱动输出下一步的动作,完成机器人的自主导航。
2.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,步骤(1)中UWB定位系统由4个固定的基站点和1个可移动的标签点组成;将4个基站固定放置在房间的四个角,将1个UWB标签放置在机器人上;UWB定位系统通过组合标签点到四个基站的距离,最终计算出标签点在三维空间的坐标。
3.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,步骤(2)中机器人上装有RGB-D相机,用于直接获取空间点的深度信息,从而根据深度信息得到每张图片中每个像素点的3d位置。
4.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,步骤(2)中的融合定位方式为:
(201)以UWB定位系统在定位过程中所使用的世界坐标系作为全局坐标系,将深度相机获取的相对位置信息经过空间变换,转换到世界坐标系下;
(202)将两个位置坐标输入到一个3层(2×3×1)神经网络中进行数据融合。
5.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,所述目标检测网络包括YOLO、Faster-RCNN。
CN202010193177.3A 2020-03-18 2020-03-18 超宽带与视觉融合的室内机器人定位与自主导航方法 Pending CN111413970A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010193177.3A CN111413970A (zh) 2020-03-18 2020-03-18 超宽带与视觉融合的室内机器人定位与自主导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010193177.3A CN111413970A (zh) 2020-03-18 2020-03-18 超宽带与视觉融合的室内机器人定位与自主导航方法

Publications (1)

Publication Number Publication Date
CN111413970A true CN111413970A (zh) 2020-07-14

Family

ID=71491146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010193177.3A Pending CN111413970A (zh) 2020-03-18 2020-03-18 超宽带与视觉融合的室内机器人定位与自主导航方法

Country Status (1)

Country Link
CN (1) CN111413970A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111947644A (zh) * 2020-08-10 2020-11-17 北京洛必德科技有限公司 一种室外移动机器人定位方法、系统及其电子设备
CN112068567A (zh) * 2020-09-16 2020-12-11 上海振华重工(集团)股份有限公司 一种基于超宽带和视觉图像的定位方法及定位系统
CN112284373A (zh) * 2020-10-16 2021-01-29 北京特种机械研究所 一种基于uwb无线定位和视觉定位的agv导航方法及系统
CN112629520A (zh) * 2020-11-25 2021-04-09 北京集光通达科技股份有限公司 一种机器人导航与定位方法、系统、设备及存储介质
CN112873211A (zh) * 2021-02-24 2021-06-01 清华大学 一种机器人人机交互方法
CN113392584A (zh) * 2021-06-08 2021-09-14 华南理工大学 基于深度强化学习和方向估计的视觉导航方法
CN114136306A (zh) * 2021-12-01 2022-03-04 浙江大学湖州研究院 一种可拓展的基于uwb和摄像头的相对定位的设备和方法
CN115562348A (zh) * 2022-11-03 2023-01-03 国网福建省电力有限公司漳州供电公司 基于变电站的无人机图像技术方法
CN115689199A (zh) * 2022-10-31 2023-02-03 天津大学 用于汽车智能制造的自主移动机器人调度系统
EP4192067A4 (en) * 2020-07-27 2024-02-14 Daikin Ind Ltd ESTIMATION SYSTEM AND ESTIMATION METHODS
CN115689199B (zh) * 2022-10-31 2024-05-17 天津大学 用于汽车智能制造的自主移动机器人调度系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102914967A (zh) * 2012-09-21 2013-02-06 浙江工业大学 采摘机器人的自主导航和人机协同采摘作业系统
CN105657668A (zh) * 2016-03-16 2016-06-08 南通大学 一种基于uwb的室内移动机器人定位与导航控制方法
CN106019216A (zh) * 2016-05-12 2016-10-12 天津大学 一种基于toa的室内人员被动式定位方法
CN108267172A (zh) * 2018-01-25 2018-07-10 神华宁夏煤业集团有限责任公司 矿用智能机器人巡检系统
CN109106563A (zh) * 2018-06-28 2019-01-01 清华大学天津高端装备研究院 一种基于深度学习算法的自动化导盲装置
CN110039552A (zh) * 2019-04-03 2019-07-23 中铁建设集团有限公司 一种工程管理智能机器人
CN110147106A (zh) * 2019-05-29 2019-08-20 福建(泉州)哈工大工程技术研究院 具激光和视觉融合避障系统的智能移动服务机器人
CN110446159A (zh) * 2019-08-12 2019-11-12 上海工程技术大学 一种室内无人机精确定位与自主导航的系统及方法
CN110480644A (zh) * 2019-07-08 2019-11-22 华南农业大学 一种基于uwb定位的猪场巡检机器人
CN110632931A (zh) * 2019-10-09 2019-12-31 哈尔滨工程大学 动态环境下基于深度强化学习的移动机器人避碰规划方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102914967A (zh) * 2012-09-21 2013-02-06 浙江工业大学 采摘机器人的自主导航和人机协同采摘作业系统
CN105657668A (zh) * 2016-03-16 2016-06-08 南通大学 一种基于uwb的室内移动机器人定位与导航控制方法
CN106019216A (zh) * 2016-05-12 2016-10-12 天津大学 一种基于toa的室内人员被动式定位方法
CN108267172A (zh) * 2018-01-25 2018-07-10 神华宁夏煤业集团有限责任公司 矿用智能机器人巡检系统
CN109106563A (zh) * 2018-06-28 2019-01-01 清华大学天津高端装备研究院 一种基于深度学习算法的自动化导盲装置
CN110039552A (zh) * 2019-04-03 2019-07-23 中铁建设集团有限公司 一种工程管理智能机器人
CN110147106A (zh) * 2019-05-29 2019-08-20 福建(泉州)哈工大工程技术研究院 具激光和视觉融合避障系统的智能移动服务机器人
CN110480644A (zh) * 2019-07-08 2019-11-22 华南农业大学 一种基于uwb定位的猪场巡检机器人
CN110446159A (zh) * 2019-08-12 2019-11-12 上海工程技术大学 一种室内无人机精确定位与自主导航的系统及方法
CN110632931A (zh) * 2019-10-09 2019-12-31 哈尔滨工程大学 动态环境下基于深度强化学习的移动机器人避碰规划方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN WANG ET AL.: "Ultra-Wideband Aided Fast Localization and Mapping System", 《INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 *
徐晓苏等: "基于二次解析的 UWB 室内定位高度方向优化方法", 《中国惯性技术学报》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4192067A4 (en) * 2020-07-27 2024-02-14 Daikin Ind Ltd ESTIMATION SYSTEM AND ESTIMATION METHODS
CN111947644A (zh) * 2020-08-10 2020-11-17 北京洛必德科技有限公司 一种室外移动机器人定位方法、系统及其电子设备
CN112068567B (zh) * 2020-09-16 2023-11-24 上海振华重工(集团)股份有限公司 一种基于超宽带和视觉图像的定位方法及定位系统
CN112068567A (zh) * 2020-09-16 2020-12-11 上海振华重工(集团)股份有限公司 一种基于超宽带和视觉图像的定位方法及定位系统
CN112284373A (zh) * 2020-10-16 2021-01-29 北京特种机械研究所 一种基于uwb无线定位和视觉定位的agv导航方法及系统
CN112629520A (zh) * 2020-11-25 2021-04-09 北京集光通达科技股份有限公司 一种机器人导航与定位方法、系统、设备及存储介质
CN112873211A (zh) * 2021-02-24 2021-06-01 清华大学 一种机器人人机交互方法
CN112873211B (zh) * 2021-02-24 2022-03-11 清华大学 一种机器人人机交互方法
CN113392584A (zh) * 2021-06-08 2021-09-14 华南理工大学 基于深度强化学习和方向估计的视觉导航方法
CN113392584B (zh) * 2021-06-08 2022-12-16 华南理工大学 基于深度强化学习和方向估计的视觉导航方法
CN114136306A (zh) * 2021-12-01 2022-03-04 浙江大学湖州研究院 一种可拓展的基于uwb和摄像头的相对定位的设备和方法
CN114136306B (zh) * 2021-12-01 2024-05-07 浙江大学湖州研究院 一种可拓展的基于uwb和摄像头的相对定位的设备和方法
CN115689199A (zh) * 2022-10-31 2023-02-03 天津大学 用于汽车智能制造的自主移动机器人调度系统
CN115689199B (zh) * 2022-10-31 2024-05-17 天津大学 用于汽车智能制造的自主移动机器人调度系统
CN115562348A (zh) * 2022-11-03 2023-01-03 国网福建省电力有限公司漳州供电公司 基于变电站的无人机图像技术方法

Similar Documents

Publication Publication Date Title
CN111413970A (zh) 超宽带与视觉融合的室内机器人定位与自主导航方法
CN110446159B (zh) 一种室内无人机精确定位与自主导航的系统及方法
US10192113B1 (en) Quadocular sensor design in autonomous platforms
JP7386173B2 (ja) データ融合方法及び関連装置
CN110166571A (zh) 一种基于移动机器人的自动跟随方法和装置
CN111260751B (zh) 基于多传感器移动机器人的建图方法
Zhao et al. Survey on robot multi-sensor information fusion technology
CN115900710A (zh) 基于视觉信息的动态环境导航方法
CN114719848A (zh) 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
JP7166446B2 (ja) ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体
KR101155500B1 (ko) 복수 개의 이동체를 제어하는 장치 및 방법
Malagon-Soldara et al. Mobile robot localization: A review of probabilistic map-based techniques
CN116466712A (zh) 基于cml-avg激光雷达小车的自主巡航方法及系统
Popa et al. EKF-based adaptive sampling with mobile robotic sensor nodes
CN114459467B (zh) 一种未知救援环境中基于vi-slam的目标定位方法
Zeng et al. Study on inspection robot for substation based on ultra-wide-band wireless localization system
Kong et al. Hybrid indoor positioning method of BLE and monocular VINS based smartphone
Li et al. 3D semantic map construction based on point cloud and image fusion
CN112419461A (zh) 一种协同无人系统联合语义建图方法
Liu et al. A Review of Sensing Technologies for Indoor Autonomous Mobile Robots
Badalkhani et al. Multi-robot SLAM in dynamic environments with parallel maps
CN115019167B (zh) 基于移动终端的融合定位方法、系统、设备及存储介质
CN116193581B (zh) 一种基于集员滤波的室内无人机混合定位方法及系统
Howard et al. Cooperative localisation and mapping: Preliminary report
Kozlov et al. Development of an Autonomous Robotic System Using the Graph-based SPLAM Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200714