CN111413970A - 超宽带与视觉融合的室内机器人定位与自主导航方法 - Google Patents
超宽带与视觉融合的室内机器人定位与自主导航方法 Download PDFInfo
- Publication number
- CN111413970A CN111413970A CN202010193177.3A CN202010193177A CN111413970A CN 111413970 A CN111413970 A CN 111413970A CN 202010193177 A CN202010193177 A CN 202010193177A CN 111413970 A CN111413970 A CN 111413970A
- Authority
- CN
- China
- Prior art keywords
- robot
- positioning
- information
- ultra
- wideband
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0257—Hybrid positioning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/14—Determining absolute distances from a plurality of spaced points of known location
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Abstract
本发明公开一种超宽带与视觉融合的室内机器人定位与自主导航方法,包括以下步骤:(1)通过UWB定位系统获取并解算机器人绝对位置信息;(2)通过深度相机获取机器人的相对位置信息后;再通过融合定位方式得到机器人的精确位置信息;(3)通过避障导航模块获取方向信息控制驱动机器人完成导航;具体包括:(301)通过目标检测网络获取障碍物信息;(302)通过强化学习训练机器人完成避障导航。
Description
技术领域
本发明涉及室内机器人定位与导航技术领域,特别是涉及一种超宽带与视觉融合的室内机器人定位与自主导航方法。
背景技术
室内定位导航解决的是导航技术最后一公里的问题,应用广泛,尤其在大型复杂的室内环境中,如博物馆、机场、超市、医院、地下矿井等区域,人们对位置服务有迫切需求。但是由于室内环境复杂,易受到遮挡和多径效应的影响,因此,获取精确的位置信息是当前的研究热点与难点。
超宽带(Ultra Wide Band,UWB)定位技术是一种基于极窄脉冲无线技术,UWB射频信号与生俱来的物理特性使得UWB技术从一开始就被明确定义:能够实现实时、超精确、超可靠的定位和通信。它能够非常准确地测量无线电信号的飞行时间,从而实现厘米精度的距离/位置测量。UWB定位系统的精度可以达到15cm,测距范围达150m,数据更新频率最快可以达到10Hz。但是UWB定位技术的缺点是易受非视距误差的影响,室内环境下障碍物较为密集,移动标签与基站之间的信号无法直线传播,需要经过反射和衍射才能到达接收端,从而无法估算出准确的传播距离。
自主定位导航是机器人实现智能化的前提之一,是赋予机器人感知和行动能力的关键因素。机器人实现自主定位导航,需要对周围环境进行分析、判断和选择,规划路径,进而完成导航任务。目前,自主定位导航技术有多种,视觉定位导航技术因其简单方便在各个领域中广泛应用。
视觉定位导航主要借助视觉传感器完成,机器人借助单目、双目摄像头、深度摄像机、视频信号数字化设备或基于DSP(Digital Signal Processing)的快速信号处理器等其他外部设备获取图像,然后对周围的环境进行光学处理,将采集到的图像信息进行压缩,反馈到由神经网络和统计学方法构成的学习子系统,然后由子系统将采集到的图像信息与机器人的实际位置联系起来,完成定位。
UWB定位技术是一种绝对定位方式,可以获得三维空间的坐标信息,视觉定位是一种相对定位方式。因此,将两种不同信息源的数据融合在一起,可以实现优势互补,提供鲁棒性更好、精度更高的定位信息。
深度强化学习适合于复杂环境下的连续决策任务,因此非常适合解决机器人问题,近几年,在机器人抓取、导航等任务中研究非常广泛。因此,结合深度强化学习可以完成移动机器人的导航控制问题,实现自主导航。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种超宽带与视觉融合的室内机器人定位与自主导航方法,通过采用UWB技术与视觉信息融合的方式,达到了优势互补的效果,实现了高精度定位,同时将获取的位置信息与障碍物信息作为先验知识,结合深度强化学习模型,实现无地图式的机器人自主导航,准确率高,鲁棒性好,且易于实现,可以应用到医疗,养老,商场等多个领域。
本发明的目的是通过以下技术方案实现的:
一种超宽带与视觉融合的室内机器人定位与自主导航方法,包括以下步骤:
(1)通过UWB定位系统获取并解算机器人绝对位置信息;
(2)通过深度相机获取机器人的相对位置信息后;再通过融合定位方式得到机器人的精确位置信息;
(3)通过避障导航模块获取方向信息控制驱动机器人完成导航;具体包括:
(301)通过目标检测网络获取障碍物信息;在避障导航模块中,将RGB-D相机获取的图像信息进行特征提取,放入到目标检测网络中检测出当前视图中的目标物体,然后根据当前图像的深度信息计算出目标物体与移动机器人的距离,由此得到当前的障碍物信息
(302)通过强化学习训练机器人完成避障导航;在不依赖地图信息情况下,将得到的精确位置信息与障碍物信息作为先验知识,输入到深度强化学习模型—A3C(Asynchronous Advantage Actor-Critic)算法框架中,将速度与转角的数值作为控制输出,然后送入到机器人微控制器中,驱动输出下一步的动作,完成机器人的自主导航。
进一步的,步骤(1)中UWB定位系统由4个固定的基站点和1个可移动的标签点组成;将4个基站固定放置在房间的四个角,将1个UWB标签放置在移动机器人上;UWB定位系统通过组合标签点到四个基站的距离,最终计算出标签点在三维空间的坐标。
进一步的,步骤(2)中移动机器人上装有RGB-D相机,用于直接获取空间点的深度信息,从而根据深度信息得到每张图片中每个像素点的3d位置。
进一步的,步骤(2)中的融合定位方式为:
(201)以UWB定位系统在定位过程中所使用的世界坐标系作为全局坐标系,将深度相机获取的相对位置信息经过空间变换,转换到世界坐标系下;
(202)将两个位置坐标输入到一个3层(2×3×1)神经网络中进行数据融合。
进一步的,所述目标检测网络包括YOLO、Faster-RCNN
与现有技术相比,本发明的技术方案所带来的有益效果是:
1.本发明融合UWB定位技术与视觉定位技术,弥补UWB定位技术易受非视距的影响,可以实现厘米级别的定位精度,得到更精确的定位。
2.本发明将位置信息和障碍物信息作为先验知识,结合深度强化学习模型进行机器人导航,实现无地图式的自主导航。
3.本方法适用于当前各类室内机器人定位与导航应用,尤其是在需要精确定位的复杂的室内场景中,比如商场、博物馆、医院、地下矿井等区域,鲁棒性强,稳定性好。同时本发明适用于无地图式的复杂场景中,可以实现自主导航。
附图说明
图1是UWB室内定位示意图。
图2是图片坐标系与相机坐标系的关系示意图。
图3是强化学习框架图。
图4是机器人融合定位与导航框架图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种超宽带与视觉融合的室内机器人定位与自主导航方法。该方案整体框架如图4所示。硬件结构主要分为两部分,UWB系统与移动机器人。方案主体围绕移动机器人展开。
步骤1:通过UWB定位技术获取并解算机器人绝对位置信息。
本实施例中UWB定位系统由4个固定的基站点和1个可移动的标签点组成。具体分布如图1所示。本实施例中将4个基站固定放置在房间的四个角,将1个UWB标签放置在移动机器人上。系统通过组合标签点到四个基站的距离,从而计算出标签点在三维空间的坐标。
本实施例使用TOF的测距方式,飞行时间法(Timeofflight,TOF)是一种双向测距技术,它通过测量UWB信号在基站与标签之间往返的飞行时间来计算距离。基站与标签点之间的距离表示为:
dat=c(tt-ta) (1)
其中,c为光速,tt为标签信号发射时间,ta为基站信号接收时间。
标签与基站之间的距离di(i=1,2,3,4)与标签在世界坐标系中的坐标位置有如下关系:
其中,(xi,yi,zi),(i=1,2,3,4)是基站的已知位置,(x0,y0,z0)为待求解的标签点位置。
三个未知数和四个表达式(非线性相关)的方程无法直接求解,因此采用最小均方误差估计的方式求解:
步骤2:通过融合定位模块得到机器人的精确位置信息。
步骤(201):通过深度相机获取机器人的相对位置信息。
移动机器人上装有RGB-D相机,可直接获取空间点的深度信息,从而根据深度信息得到每张图片中每个像素点的3d位置。
具体流程为,首先标定相机,得到相机的内参与外参,然后设置坐标系如图2所示。其中,o'-uv是图片坐标系,o-xyz是相机坐标系,假设图片中的点为(u,v),对应的三维点位置为(x,y,z),则二者之间的转换关系为:
其中,fx,fy代表焦距,cx,cy代表主点坐标(相对于成像平面),l为尺度因子,表示从相机光心出去的射线都会落在成像平面的同一个点上。在RGB-D相机中,从深度图中得到的距离dep(u,v)与真实距离相差一个倍数s,因此得到尺度因子l为:
那么解算三维点位置为:
完成相机标定后,可以得到cx,cy,fx,fy,l的值。由此得到了通过视觉深度信息转换的机器人的相对位置信息。
步骤(202):通过融合定位获取机器人的精确位置信息。
由于UWB定位易受到非视距误差的影响,本实施例采取两种定位技术融合的方式来进行精确定位,采用视觉相对位置信息进行辅助定位。具体的融合方式为:
首先以UWB定位过程中所使用的世界坐标系作为全局坐标系,将视觉解算出的相对位置信息经过空间变换,转换到世界坐标系下。
然后将两个位置坐标输入到一个3层(2×3×1)人工神经网络(ArtificialNeural Network)中进行数据融合,神经网络具有较强的容错性和自组织、自学习及自适应能力,能够实现复杂的映射;神经网络还具有强大的非线性处理能力,能够很好的满足数据融合技术的要求。
步骤3:通过避障导航模块获取方向信息控制驱动机器人完成导航。
步骤(301):通过目标检测网络获取障碍物信息;
在避障导航模块中,将RGB-D相机获取的图像信息进行特征提取,放入到目标检测网络如YOLO、Faster-RCNN等中检测出当前视图中的目标物体,然后根据图像的深度信息计算出目标物体与移动机器人的距离,由此得到当前的障碍物信息。
步骤(302):通过强化学习训练机器人完成避障导航;
在不依赖地图信息情况下,将得到的精确位置信息与障碍物信息作为先验知识,输入到深度强化学习模型中,将速度与转角的数值作为控制输出,然后送入到机器人微控制器中,驱动输出下一步的动作,完成机器人的自主导航。
深度强化学习DRL将深度学习(Deep Learning,DL)与强化学习(ReinforcementLearning,RL)进行了融合,其中DL主要负责利用神经网络的感知功能对输入的未知环境状态提取特征,实现环境状态到状态动作值函数的拟合;而RL则负责根据深度神经网络的输出和一定的探索策略完成决策,从而实现状态到动作的映射,其能较好地满足机器人的移动需求。本实施例使用的深度强化学习模型为--A3C(Asynchronous Advantage Actor-Critic)算法框架。
机器人导航本质是机器人(Agent)与环境的交互任务,在这个任务中机器人在时刻t从一组设定的运动动作中,比如前进、后退、左转、右转等,选择一个动作At={1,...,K},从一个状态St转移到另一个状态St+1,设定奖励规则,从环境获得数值型奖励(Reward)R,动作(Action)指令被传递给机器人进行控制驱动,完成与环境的交互,即为一个强化学习过程,强化学习框架如图3所示。
具体地,将每个时刻RGB-D深度图像作为马尔可夫状态,故采集的深度图像集合作为马尔可夫状态空间。在构建状态空间过程中,使用基于神经网络的A3C(AsynchronousAdvantage Actor-Critic)算法进行训练,将深度图像作为机器人的控制输入,将机器人的线速度与角速度作为输出来控制机器人进行运动规划,使得机器人可以在一个连续的动作空间中选择接下来要做的动作。除此之外,制定奖励值R的给予规则,在机器人的运动过程中,根据是否发生碰撞给予机器人奖励,若是碰撞就给予较大的负奖励值;结合障碍物信息,离障碍物越近则给予越小的奖励值;相反的,若是机器人未碰到障碍物,便给予正奖励值,以鼓励无碰撞运动;结合精确位置信息,离终点越近则给予越大的奖励值,以鼓励选择最短路径运动。
在Actor-Critic算法的框架中,“Actor”负责Policy Gradient的学习策略Q(s,a),而“Critic”作为策略评价估计的值函数V(s)。策略和值函数互为依赖,相互影响,在训练过程中迭代优化。在A3C算法中,定义优势函数A(s,a)表示在状态s下选择的动作a的好坏程度。
A(s,a)=Q(s,a)-V(s) (7)
由于在A3C中实际上并没有计算Q值,在此使用折扣回报R作为Q值的估计值。
R=rt+γ rt-1+γ2rt-2 (8)
其中,rt表示时刻t时的回报,γ为权重值。则优势函数为:
A(s,a)=R-V(s) (9)
这时,即可得到值损失为折扣回报与状态值之间的均方差:
值损失(Lv)=∑(R-V(s))2 (10)
则策略损失定义为:
策略损失(Lp)=log(π(s))A(s,a)H(π) (11)
其中,π(s)为状态函数,根据状态的输入来估计策略的选择。A(s,a)为优势函数,H(π)为熵,用于确保策略得到充分探索。熵值越小,某一行为将会获得比其他行为更高的概率,则机器人就会选择概率最大的行为。在损失函数中增加熵将会鼓励智能体进一步探索,从而避免陷入局部最优。
结合异步的优势演员评论家算法(A3C)进行训练,克服了机器人输出有限的执行动作的局限性,使得机器人可以在连续的速度与方向角度数值区间中输出执行动作。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。
Claims (5)
1.超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,包括以下步骤:
(1)通过UWB定位系统获取并解算机器人绝对位置信息;
(2)通过深度相机获取机器人的相对位置信息后;再通过融合定位方式得到机器人的精确位置信息;
(3)通过避障导航模块获取方向信息控制驱动机器人完成导航;具体包括:
(301)通过目标检测网络获取障碍物信息;在避障导航模块中,将RGB-D相机获取的图像信息进行特征提取,放入到目标检测网络中检测出当前视图中的目标物体,然后根据当前图像的深度信息计算出目标物体与机器人的距离,由此得到当前的障碍物信息
(302)通过强化学习训练机器人完成避障导航;在不依赖地图信息情况下,将得到的精确位置信息与障碍物信息作为先验知识,输入到深度强化学习模型中,将速度与转角的数值作为控制输出,然后送入到机器人微控制器中,驱动输出下一步的动作,完成机器人的自主导航。
2.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,步骤(1)中UWB定位系统由4个固定的基站点和1个可移动的标签点组成;将4个基站固定放置在房间的四个角,将1个UWB标签放置在机器人上;UWB定位系统通过组合标签点到四个基站的距离,最终计算出标签点在三维空间的坐标。
3.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,步骤(2)中机器人上装有RGB-D相机,用于直接获取空间点的深度信息,从而根据深度信息得到每张图片中每个像素点的3d位置。
4.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,步骤(2)中的融合定位方式为:
(201)以UWB定位系统在定位过程中所使用的世界坐标系作为全局坐标系,将深度相机获取的相对位置信息经过空间变换,转换到世界坐标系下;
(202)将两个位置坐标输入到一个3层(2×3×1)神经网络中进行数据融合。
5.根据权利要求1所述超宽带与视觉融合的室内机器人定位与自主导航方法,其特征在于,所述目标检测网络包括YOLO、Faster-RCNN。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010193177.3A CN111413970A (zh) | 2020-03-18 | 2020-03-18 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010193177.3A CN111413970A (zh) | 2020-03-18 | 2020-03-18 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111413970A true CN111413970A (zh) | 2020-07-14 |
Family
ID=71491146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010193177.3A Pending CN111413970A (zh) | 2020-03-18 | 2020-03-18 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111413970A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111947644A (zh) * | 2020-08-10 | 2020-11-17 | 北京洛必德科技有限公司 | 一种室外移动机器人定位方法、系统及其电子设备 |
CN112068567A (zh) * | 2020-09-16 | 2020-12-11 | 上海振华重工(集团)股份有限公司 | 一种基于超宽带和视觉图像的定位方法及定位系统 |
CN112284373A (zh) * | 2020-10-16 | 2021-01-29 | 北京特种机械研究所 | 一种基于uwb无线定位和视觉定位的agv导航方法及系统 |
CN112629520A (zh) * | 2020-11-25 | 2021-04-09 | 北京集光通达科技股份有限公司 | 一种机器人导航与定位方法、系统、设备及存储介质 |
CN112873211A (zh) * | 2021-02-24 | 2021-06-01 | 清华大学 | 一种机器人人机交互方法 |
CN113392584A (zh) * | 2021-06-08 | 2021-09-14 | 华南理工大学 | 基于深度强化学习和方向估计的视觉导航方法 |
CN114136306A (zh) * | 2021-12-01 | 2022-03-04 | 浙江大学湖州研究院 | 一种可拓展的基于uwb和摄像头的相对定位的设备和方法 |
CN115562348A (zh) * | 2022-11-03 | 2023-01-03 | 国网福建省电力有限公司漳州供电公司 | 基于变电站的无人机图像技术方法 |
CN115689199A (zh) * | 2022-10-31 | 2023-02-03 | 天津大学 | 用于汽车智能制造的自主移动机器人调度系统 |
EP4192067A4 (en) * | 2020-07-27 | 2024-02-14 | Daikin Ind Ltd | ESTIMATION SYSTEM AND ESTIMATION METHODS |
CN115689199B (zh) * | 2022-10-31 | 2024-05-17 | 天津大学 | 用于汽车智能制造的自主移动机器人调度系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102914967A (zh) * | 2012-09-21 | 2013-02-06 | 浙江工业大学 | 采摘机器人的自主导航和人机协同采摘作业系统 |
CN105657668A (zh) * | 2016-03-16 | 2016-06-08 | 南通大学 | 一种基于uwb的室内移动机器人定位与导航控制方法 |
CN106019216A (zh) * | 2016-05-12 | 2016-10-12 | 天津大学 | 一种基于toa的室内人员被动式定位方法 |
CN108267172A (zh) * | 2018-01-25 | 2018-07-10 | 神华宁夏煤业集团有限责任公司 | 矿用智能机器人巡检系统 |
CN109106563A (zh) * | 2018-06-28 | 2019-01-01 | 清华大学天津高端装备研究院 | 一种基于深度学习算法的自动化导盲装置 |
CN110039552A (zh) * | 2019-04-03 | 2019-07-23 | 中铁建设集团有限公司 | 一种工程管理智能机器人 |
CN110147106A (zh) * | 2019-05-29 | 2019-08-20 | 福建(泉州)哈工大工程技术研究院 | 具激光和视觉融合避障系统的智能移动服务机器人 |
CN110446159A (zh) * | 2019-08-12 | 2019-11-12 | 上海工程技术大学 | 一种室内无人机精确定位与自主导航的系统及方法 |
CN110480644A (zh) * | 2019-07-08 | 2019-11-22 | 华南农业大学 | 一种基于uwb定位的猪场巡检机器人 |
CN110632931A (zh) * | 2019-10-09 | 2019-12-31 | 哈尔滨工程大学 | 动态环境下基于深度强化学习的移动机器人避碰规划方法 |
-
2020
- 2020-03-18 CN CN202010193177.3A patent/CN111413970A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102914967A (zh) * | 2012-09-21 | 2013-02-06 | 浙江工业大学 | 采摘机器人的自主导航和人机协同采摘作业系统 |
CN105657668A (zh) * | 2016-03-16 | 2016-06-08 | 南通大学 | 一种基于uwb的室内移动机器人定位与导航控制方法 |
CN106019216A (zh) * | 2016-05-12 | 2016-10-12 | 天津大学 | 一种基于toa的室内人员被动式定位方法 |
CN108267172A (zh) * | 2018-01-25 | 2018-07-10 | 神华宁夏煤业集团有限责任公司 | 矿用智能机器人巡检系统 |
CN109106563A (zh) * | 2018-06-28 | 2019-01-01 | 清华大学天津高端装备研究院 | 一种基于深度学习算法的自动化导盲装置 |
CN110039552A (zh) * | 2019-04-03 | 2019-07-23 | 中铁建设集团有限公司 | 一种工程管理智能机器人 |
CN110147106A (zh) * | 2019-05-29 | 2019-08-20 | 福建(泉州)哈工大工程技术研究院 | 具激光和视觉融合避障系统的智能移动服务机器人 |
CN110480644A (zh) * | 2019-07-08 | 2019-11-22 | 华南农业大学 | 一种基于uwb定位的猪场巡检机器人 |
CN110446159A (zh) * | 2019-08-12 | 2019-11-12 | 上海工程技术大学 | 一种室内无人机精确定位与自主导航的系统及方法 |
CN110632931A (zh) * | 2019-10-09 | 2019-12-31 | 哈尔滨工程大学 | 动态环境下基于深度强化学习的移动机器人避碰规划方法 |
Non-Patent Citations (2)
Title |
---|
CHEN WANG ET AL.: "Ultra-Wideband Aided Fast Localization and Mapping System", 《INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 * |
徐晓苏等: "基于二次解析的 UWB 室内定位高度方向优化方法", 《中国惯性技术学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4192067A4 (en) * | 2020-07-27 | 2024-02-14 | Daikin Ind Ltd | ESTIMATION SYSTEM AND ESTIMATION METHODS |
CN111947644A (zh) * | 2020-08-10 | 2020-11-17 | 北京洛必德科技有限公司 | 一种室外移动机器人定位方法、系统及其电子设备 |
CN112068567B (zh) * | 2020-09-16 | 2023-11-24 | 上海振华重工(集团)股份有限公司 | 一种基于超宽带和视觉图像的定位方法及定位系统 |
CN112068567A (zh) * | 2020-09-16 | 2020-12-11 | 上海振华重工(集团)股份有限公司 | 一种基于超宽带和视觉图像的定位方法及定位系统 |
CN112284373A (zh) * | 2020-10-16 | 2021-01-29 | 北京特种机械研究所 | 一种基于uwb无线定位和视觉定位的agv导航方法及系统 |
CN112629520A (zh) * | 2020-11-25 | 2021-04-09 | 北京集光通达科技股份有限公司 | 一种机器人导航与定位方法、系统、设备及存储介质 |
CN112873211A (zh) * | 2021-02-24 | 2021-06-01 | 清华大学 | 一种机器人人机交互方法 |
CN112873211B (zh) * | 2021-02-24 | 2022-03-11 | 清华大学 | 一种机器人人机交互方法 |
CN113392584A (zh) * | 2021-06-08 | 2021-09-14 | 华南理工大学 | 基于深度强化学习和方向估计的视觉导航方法 |
CN113392584B (zh) * | 2021-06-08 | 2022-12-16 | 华南理工大学 | 基于深度强化学习和方向估计的视觉导航方法 |
CN114136306A (zh) * | 2021-12-01 | 2022-03-04 | 浙江大学湖州研究院 | 一种可拓展的基于uwb和摄像头的相对定位的设备和方法 |
CN114136306B (zh) * | 2021-12-01 | 2024-05-07 | 浙江大学湖州研究院 | 一种可拓展的基于uwb和摄像头的相对定位的设备和方法 |
CN115689199A (zh) * | 2022-10-31 | 2023-02-03 | 天津大学 | 用于汽车智能制造的自主移动机器人调度系统 |
CN115689199B (zh) * | 2022-10-31 | 2024-05-17 | 天津大学 | 用于汽车智能制造的自主移动机器人调度系统 |
CN115562348A (zh) * | 2022-11-03 | 2023-01-03 | 国网福建省电力有限公司漳州供电公司 | 基于变电站的无人机图像技术方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111413970A (zh) | 超宽带与视觉融合的室内机器人定位与自主导航方法 | |
CN110446159B (zh) | 一种室内无人机精确定位与自主导航的系统及方法 | |
US10192113B1 (en) | Quadocular sensor design in autonomous platforms | |
JP7386173B2 (ja) | データ融合方法及び関連装置 | |
CN110166571A (zh) | 一种基于移动机器人的自动跟随方法和装置 | |
CN111260751B (zh) | 基于多传感器移动机器人的建图方法 | |
Zhao et al. | Survey on robot multi-sensor information fusion technology | |
CN115900710A (zh) | 基于视觉信息的动态环境导航方法 | |
CN114719848A (zh) | 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法 | |
JP7166446B2 (ja) | ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体 | |
KR101155500B1 (ko) | 복수 개의 이동체를 제어하는 장치 및 방법 | |
Malagon-Soldara et al. | Mobile robot localization: A review of probabilistic map-based techniques | |
CN116466712A (zh) | 基于cml-avg激光雷达小车的自主巡航方法及系统 | |
Popa et al. | EKF-based adaptive sampling with mobile robotic sensor nodes | |
CN114459467B (zh) | 一种未知救援环境中基于vi-slam的目标定位方法 | |
Zeng et al. | Study on inspection robot for substation based on ultra-wide-band wireless localization system | |
Kong et al. | Hybrid indoor positioning method of BLE and monocular VINS based smartphone | |
Li et al. | 3D semantic map construction based on point cloud and image fusion | |
CN112419461A (zh) | 一种协同无人系统联合语义建图方法 | |
Liu et al. | A Review of Sensing Technologies for Indoor Autonomous Mobile Robots | |
Badalkhani et al. | Multi-robot SLAM in dynamic environments with parallel maps | |
CN115019167B (zh) | 基于移动终端的融合定位方法、系统、设备及存储介质 | |
CN116193581B (zh) | 一种基于集员滤波的室内无人机混合定位方法及系统 | |
Howard et al. | Cooperative localisation and mapping: Preliminary report | |
Kozlov et al. | Development of an Autonomous Robotic System Using the Graph-based SPLAM Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200714 |