CN107544504B - 一种面向复杂环境的灾区救援机器人自主探测系统及方法 - Google Patents
一种面向复杂环境的灾区救援机器人自主探测系统及方法 Download PDFInfo
- Publication number
- CN107544504B CN107544504B CN201710883307.4A CN201710883307A CN107544504B CN 107544504 B CN107544504 B CN 107544504B CN 201710883307 A CN201710883307 A CN 201710883307A CN 107544504 B CN107544504 B CN 107544504B
- Authority
- CN
- China
- Prior art keywords
- vibration
- robot
- controller
- information
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种面向复杂环境的灾区救援机器人自主探测系统,包括机器人,在机器人上设置有控制器、振动传感器阵列、RGB‑D相机和目标物特征存储器;以及自主探测方法,步骤如下:S1,预处理。S2,遍历找寻并实时构建地图。S3,判断是否进入粗引导模式。S4,粗引导机器人移动。S5,细引导机器人移动。S6,确定目标物。本发明将RGB‑D相机和惯性导航进行融合,并根据振动时延差计算出振动传感器阵列原点距离振源的角度与位置;把振源的位置信息与设定的第一阈值a1比较,判断是否进入粗引导模式;当振源位置或声音强弱符合阈值a2,a3时,则进入细引导模式;进入细引导模式后,判目标的真伪。本发明搜寻准确,能有效滤除干扰信息,提高找寻速率和准确率。
Description
技术领域
本发明涉及机器人技术领域,特别是涉及一种面向复杂环境的灾区救援机器人自主、快速、动态的探测系统。
背景技术
全世界每年都遭受着大量自然灾害和人为灾害的破坏。巨大的灾害会造成大面积的建筑物坍塌和人员伤亡,灾害发生之后最紧急的事情就是搜救那些困在废墟中的幸存者。研究表明,如果这些幸存者72小时之内得不到有效的救助,死亡的可能性就会急剧增加。然而,复杂危险的灾害现场给救援人员及幸存者带来了巨大的安全威胁,也会阻碍救援工作快速有效地进行。使用救援机器人进行辅助搜救是解决这一难题的有效手段。
机器人技术发展到现在,感知系统已经成为智能机器人的前提,而感知系统主要有视觉、听觉、嗅觉、触觉等,而在诸多感知中,听觉占据着重要的地位。自然界中许多动物能够通过声音来进行捕猎、寻偶及规避天敌等活动,同样机器人听觉系统也可广泛应用于医疗、战争以及搜救等方面。
机器人在找寻物体时,视觉、触觉、味觉这些感知都会受距离与遮挡物的限制,所以在远距离找寻时,听觉就会体现出更多的优势。但是灾区有很多噪音,现有机器人准确找到受灾人员。
发明内容
针对上述现有技术描述的不足,本发明提供了一种面向复杂环境的灾区救援机器人自主探测系统及方法,本发明根据仿生学原理,通过构建声波振动检测阵列,对多个点的声音的先后、强弱进行检测,根据检测结果计算出受困人员的大概位置,并根据振动衰减确定机器人的前进方向直至找到受困人员。
为解决上述技术问题,本发明所采用的技术方案如下:
一种面向复杂环境的灾区救援机器人自主探测系统,包括机器人,在机器人上设置有控制器、振动传感器阵列、RGB-D相机和目标物特征存储器;振动传感器阵列包括若干振动传感器,用于实时检测机器人所处位置的振动信息并将检测信息传输至控制器内;控制器根据振动信息得到前进方向;RGB-D相机用于采集机器人所处位置的环境图像并将采集图像传输至控制器内;控制器将将接收到的图像信息进行处理后与目标物特征存储器内的数据进行比较判断是否找到目标物;控制器将接收到的信息综合处理后机器人发送移动命令,机器人接收命令后进行避障导航移动直至找到目标物。
一种面向复杂环境的灾区救援机器人自主探测方法,步骤如下:S1,预处理。
S1.1,构建受灾地区的目标物特征模型库。
S1.2,设定第一阈值a1、第二阈值a2、振动阈值a3、粗浓度移动距离m1和细浓度移动距离m2。
S2,遍历找寻并实时构建地图。
S2.1,RGB-D相机实时采集机器人所处位置的rgb图像和depth图像并传输至控制器内,控制器运用OpenCV库对相邻rgb图像进行特征匹配得到匹配点对,通过tf坐标转换得到三维坐标匹配点对。
S2.2,控制器采用OpenCV库中的RANSAC函数,构建运动变换模型,得到相机位姿序列和相应的相机运动序列,构建相机位姿图,通过闭环检测和添加闭环约束优化位姿图。
S2.3,控制器采用基于g2o库的图优化方法全局优化位姿图,提取出相机位姿得到相机运动轨迹,构建三维点云地图,并通过Octomap库将点云地图转化为三维栅格地图。
S2.4,控制器把机器人相邻栅格列入机器人位置信息中,通过计算机器人离物体的距离信息和角度信息,得到障碍物位置,并将障碍物位置设置为不可通过序列,从而达到导航避障的目的。
S3,判断是否进入粗引导模式。
S3.1,在遍历找寻过程中,振动传感器实时监测机器人所处环境的振动信息,并将采集信息传输至控制器内。
S3.2,控制器接收采集信息并判断是否为有效振动信息,若不是有效振动信息则并重复步骤S2;若是有效振动信息则控制器根据振动信息得到振源位置。
S3.3,控制器将振源位置与第一阈值a1比较;若振源位置大于第一阈值a1,则重复步骤S3.1和步骤S3.2,直至振源位置小于等于第一阈值a1;振源位置小于等于第一阈值a1,则控制器控制机器人进入粗引导模式。
S4,粗引导机器人移动。
S4.1,得到振动衰减最快的方向。
控制器根据振动传感器得到振动的强弱信息并与振动的时延相结合,得到振动衰减最快的方向;
S4.2,计算振动衰减最快的方向与振源方向的夹角。
S4.3,将夹角与90°相比较,当夹角大于等于90°且无障碍物时,控制器控制机器人沿振动衰减最快的方向向前移动m1米到达另一点;否则控制机器人向振动衰减最快的反方向移动m1米到达另一点。
S4.4,振动传感器检测当前位置的振动信息并传输至控制器内,控制器进行处理得到当前振源位置信息和振动强度。
S4.5,控制器将当前振源位置与第二阈值a2进行比较,将振动强度与振动阈值a3进行比较,若当前振源的位置信息小于等于第二阈值a2或振动强度大于振动阈值a3时,控制器控制机器人进入细引导模式;反之,重复步骤S4.1-S4.4直至进入细引导模式。
S5,细引导机器人移动。
S5.1,控制器控制机器人发出声音提醒,并通过振动传感器进一步确定振源位置。
S5.2,控制器以局部遍历的方式每次移动m2米,逐渐向振源目标逼近。
S6,确定目标物。
S6.1,RGB-D相机实时采集当前图像并传输至控制器内。
S6.2,控制器将得到的图像信息进行处理后与目标物特征模型库进行比较;确定是否发现目标;若没有发现目标或确认误检,则重复步骤S5直至找到目标;
S6.3,若发现目标则向目标靠近,进一步比对目标物特征模型,若确认为受灾人员,机器人通过传感器检测受灾人员体温,并通过语音交互安抚与判断受灾人员生命状态,并在构建的地图上进行标注;反之,则重复步骤S5。
本发明将RGB-D相机和惯性导航进行融合,实现在未知环境下的地图构建与自主避障;通过振动传感器实时得到声音与振动信息,并将非目标的噪音波和其它仪器背景干扰波过滤,提高搜寻效率。振动传感器阵列实时对振动信息进行检测;采用最小均方(LMS)自适应算法,估计不同传感器之间准确的振动时延差;根据振动时延差计算出振动传感器阵列原点距离振源的角度与位置;把计算出来的振源位置设定为目的地位置B点,逐渐向目标靠近;把振源的位置信息与设定的第一阈值a1比较,判断是否进入粗引导模式;进入粗引导模式后,以得到的声音衰减最快方向的反方向设定为引导方向,逐步向目标靠近;当振源位置或声音强弱符合阈值a2,a3时,则进入细引导模式;进入细引导模式后,开启物体识别功能,实时把机器人可视范围内的物体与物体库进行比对,若发现受灾人员,进一步靠近目标,确定是否真为目标,防止错判。若确定为受灾人员,则在地图上标注受灾人员位置,检测受灾人员生命状态,安抚受灾人员情绪。本发明搜寻准确,能有效滤除干扰信息,提高找寻速率和准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明地图构建流程图。
图2为本发明找寻目标物的流程图。
图3为本发明声波振动监测阵列图。
图4为本发明确定振源的声波振动监测阵列图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种面向复杂环境的灾区救援机器人自主探测系统,包括机器人,在机器人上设置有控制器、振动传感器阵列、RGB-D相机和目标物特征存储器;振动传感器阵列包括若干振动传感器,用于实时检测机器人所处位置的振动信息并将检测信息传输至控制器内;控制器根据振动信息得到前进方向;RGB-D相机用于采集机器人所处位置的环境图像并将采集图像传输至控制器内;控制器将将接收到的图像信息进行处理后与目标物特征存储器内的数据进行比较判断是否找到目标物;控制器将接收到的信息综合处理后机器人发送移动命令,机器人接收命令后进行避障导航移动直至找到目标物。
并提供一种面向复杂环境的灾区救援机器人自主探测方法,步骤如下:S1,预处理。
S1.1,构建受灾地区的目标物特征模型库。
S1.2,设定第一阈值a1、第二阈值a2、振动阈值a3、粗浓度移动距离m1和细浓度移动距离m2。其中a1>a2;m1>m2。
S2,遍历找寻并实时构建地图。
S2.1,RGB-D相机实时采集机器人所处位置的rgb图像和depth图像并传输至控制器内,控制器运用OpenCV库对相邻rgb图像进行特征匹配得到匹配点对,通过tf坐标转换得到三维坐标匹配点对。
S2.2,控制器采用OpenCV库中的RANSAC函数,构建运动变换模型,得到相机位姿序列和相应的相机运动序列,构建相机位姿图,通过闭环检测和添加闭环约束优化位姿图。
S2.3,控制器采用基于g2o库的图优化方法全局优化位姿图,提取出相机位姿得到相机运动轨迹,构建三维点云地图,并通过Octomap库将点云地图转化为三维栅格地图。
S2.4,控制器把机器人相邻栅格列入机器人位置信息中,通过计算机器人离物体的距离信息和角度信息,得到障碍物位置,并将障碍物位置设置为不可通过序列,从而达到导航避障的目的。
S3,判断是否进入粗引导模式。
S3.1,在遍历找寻过程中,振动传感器实时监测机器人所处环境的振动信息,并将采集信息传输至控制器内。
S3.2,控制器接收采集信息并判断是否为有效振动信息,若不是有效振动信息则并重复步骤S2;若是有效振动信息则控制器根据振动信息得到振源位置。
S3.3,控制器将振源位置与第一阈值a1比较;若振源位置大于第一阈值a1,则重复步骤S3.1和步骤S3.2,直至振源位置小于等于第一阈值a1;振源位置小于等于第一阈值a1,则控制器控制机器人进入粗引导模式。
S4,粗引导机器人移动。
S4.1,得到振动衰减最快的方向。
控制器根据振动传感器得到振动的强弱信息并与振动的时延相结合,得到振动衰减最快的方向;
S4.2,计算振动衰减最快的方向与振源方向的夹角。
S4.3,将夹角与90°相比较,当夹角大于等于90°且无障碍物时,控制器控制机器人沿振动衰减最快的方向向前移动m1米到达另一点;否则控制机器人向振动衰减最快的反方向移动m1米到达另一点。
S4.4,振动传感器检测当前位置的振动信息并传输至控制器内,控制器进行处理得到当前振源位置信息和振动强度。
S4.5,控制器将当前振源位置与第二阈值a2进行比较,将振动强度与振动阈值a3进行比较,若当前振源的位置信息小于等于第二阈值a2或振动强度大于振动阈值a3时,控制器控制机器人进入细引导模式;反之,重复步骤S4.1-S4.4直至进入细引导模式。
S5,细引导机器人移动。
S5.1,控制器控制机器人发出声音提醒,并通过振动传感器进一步确定振源位置。
S5.2,控制器以局部遍历的方式每次移动m2米,逐渐向振源目标逼近。
S6,确定目标物。
S6.1,RGB-D相机实时采集当前图像并传输至控制器内。
S6.2,控制器将得到的图像信息进行处理后与目标物特征模型库进行比较;确定是否发现目标;若没有发现目标或确认误检,则重复步骤S5直至找到目标;若发现目标则向目标靠近,进一步确定目标。
S6.3,若发现目标则向目标靠近,进一步比对目标物特征模型,若确认为受灾人员,机器人通过传感器检测受灾人员体温,并通过语音交互安抚与判断受灾人员生命状态,并在构建的地图上进行标注;反之,则重复步骤S5。
在本发明中振动传感器为高精度传感器,它能检测到各种微小的声响。如果幸存者已经不能说话,只要用手指轻轻敲击发出微小的声响,也能够被检测到。即使被埋在废墟下,只要心脏还有微弱的跳动,振动传感器也能探测出来。
而上述步骤中根据振动时延差计算出振动传感器阵列原点,距离振源的角度与位置的算法如下:以四个振动传感器构成的阵列为例,如图4所示,传感器Mc1在坐标轴的原点,Mc2、Mc3分别位于Y轴与Z轴上,Mc4在YOZ的平面上,传感器之间距离为a,角BOS为ψ。Tij为Mc1与Mc3之间的时延,声音传播速度为c。
传感器i、j的延迟距离dij:
dij=Tij×c
原点距声源S距离为R:
角BOS为ψ:
X轴与面BOS的夹角为θ:
本发明振动传感器阵列采用9个振动传感器组成,如图3所示,每个传感器间距为d,在同一平面呈正方形排列。不同传感器经组合后,能够同时得到多组声源位置数据,再经数学拟合后,得到较为精准的声源位置信息。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种面向复杂环境的灾区救援机器人自主探测系统,其特征在于:包括机器人,在机器人上设置有控制器、振动传感器阵列、RGB-D相机和目标物特征存储器;振动传感器阵列包括若干振动传感器,用于实时检测机器人所处位置的振动信息并将检测信息传输至控制器内;控制器根据振动信息得到前进方向;RGB-D相机用于采集机器人所处位置的环境图像并将采集图像传输至控制器内;控制器将接收到的图像信息进行处理后与目标物特征存储器内的数据进行比较判断是否找到目标物;控制器将接收到的信息综合处理后机器人发送移动命令,机器人接收命令后进行避障导航移动直至找到目标物;
自主探测方法的步骤如下:S1,预处理;
S2,遍历找寻并实时构建地图;
S3,判断是否进入粗引导模式;
S4,粗引导机器人移动;
S5,细引导机器人移动;
S6,确定目标物;
在步骤S2中,具体步骤为,S2.1,RGB-D相机实时采集机器人所处位置的rgb图像和depth图像并传输至控制器内,控制器运用OpenCV库对相邻rgb图像进行特征匹配得到匹配点对,通过tf坐标转换得到三维坐标匹配点对;
S2.2,控制器采用OpenCV库中的RANSAC函数,构建运动变换模型,得到相机位姿序列和相应的相机运动序列,构建相机位姿图,通过闭环检测和添加闭环约束优化位姿图;
S2.3,控制器采用基于g2o库的图优化方法全局优化位姿图,提取出相机位姿得到相机运动轨迹,构建三维点云地图,并通过Octomap库将点云地图转化为三维栅格地图;
S2.4,控制器把机器人相邻栅格列入机器人位置信息中,通过计算机器人离物体的距离信息和角度信息,得到障碍物位置,并将障碍物位置设置为不可通过序列,从而达到导航避障的目的。
2.根据权利要求1所述的一种面向复杂环境的灾区救援机器人自主探测系统,其特征在于:在步骤S1中,具体步骤为,S1.1,构建受灾地区的目标物特征模型库;
S1.2,设定第一阈值a1、第二阈值a2、振动阈值a3、粗浓度移动距离m1和细浓度移动距离m2。
3.根据权利要求2所述的一种面向复杂环境的灾区救援机器人自主探测系统,其特征在于:在步骤S3中,具体步骤为,S3.1,在遍历找寻过程中,振动传感器实时监测机器人所处环境的振动信息,并将采集信息传输至控制器内;
S3.2,控制器接收采集信息并判断是否为有效振动信息,若不是有效振动信息则并重复步骤S2;若是有效振动信息则控制器根据振动信息得到振源位置;
S3.3,控制器将振源位置与第一阈值a1比较;若振源位置大于第一阈值a1,则重复步骤S3.1和步骤S3.2,直至振源位置小于等于第一阈值a1;振源位置小于等于第一阈值a1,则控制器控制机器人进入粗引导模式。
4.根据权利要求2所述的一种面向复杂环境的灾区救援机器人自主探测系统,其特征在于:在步骤S4中,具体步骤为,S4.1,得到振动衰减最快的方向;
控制器根据振动传感器得到振动的强弱信息并与振动的时延相结合,得到振动衰减最快的方向;
S4.2,计算振动衰减最快的方向与振源方向的夹角;
S4.3,将夹角与90°相比较,当夹角大于等于90°且无障碍物时,控制器控制机器人沿振动衰减最快的方向向前移动m1米到达另一点;否则控制机器人向振动衰减最快的反方向移动m1米到达另一点;
S4.4,振动传感器检测当前位置的振动信息并传输至控制器内,控制器进行处理得到当前振源位置信息和振动强度;
S4.5,控制器将当前振源位置与第二阈值a2进行比较,将振动强度与振动阈值a3进行比较,若当前振源的位置信息小于等于第二阈值a2或振动强度大于振动阈值a3时,控制器控制机器人进入细引导模式;反之,重复步骤S4.1-S4.4直至进入细引导模式。
5.根据权利要求1所述的一种面向复杂环境的灾区救援机器人自主探测系统,其特征在于:在步骤S5中,具体步骤为,S5.1,控制器控制机器人发出声音提醒,并通过振动传感器进一步确定振源位置;
S5.2,控制器以局部遍历的方式每次移动m2米,逐渐向振源目标逼近。
6.根据权利要求1所述的一种面向复杂环境的灾区救援机器人自主探测系统,其特征在于:在步骤S6中,具体步骤为,S6.1,RGB-D相机实时采集当前图像并传输至控制器内;
S6.2,控制器将得到的图像信息进行处理后与目标物特征模型库进行比较;确定是否发现目标;若没有发现目标或确认误检,则重复步骤S5直至找到目标;
S6.3,若发现目标则向目标靠近,进一步比对目标物特征模型,若确认为受灾人员,机器人通过传感器检测受灾人员体温,并通过语音交互安抚与判断受灾人员生命状态,并在构建的地图上进行标注;反之,则重复步骤S5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710883307.4A CN107544504B (zh) | 2017-09-26 | 2017-09-26 | 一种面向复杂环境的灾区救援机器人自主探测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710883307.4A CN107544504B (zh) | 2017-09-26 | 2017-09-26 | 一种面向复杂环境的灾区救援机器人自主探测系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107544504A CN107544504A (zh) | 2018-01-05 |
CN107544504B true CN107544504B (zh) | 2020-08-21 |
Family
ID=60963577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710883307.4A Active CN107544504B (zh) | 2017-09-26 | 2017-09-26 | 一种面向复杂环境的灾区救援机器人自主探测系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107544504B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111459166B (zh) * | 2020-04-22 | 2024-03-29 | 北京工业大学 | 一种灾后救援环境下含受困人员位置信息的情景地图构建方法 |
CN113467455A (zh) * | 2021-07-06 | 2021-10-01 | 河北工业大学 | 多工况未知复杂环境下智能小车路径规划方法及设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165289A (ja) * | 2006-12-27 | 2008-07-17 | Alacom Co Ltd | ロボットシステム |
CN102288176A (zh) * | 2011-07-07 | 2011-12-21 | 中国矿业大学(北京) | 基于信息融合的煤矿救灾机器人导航系统及方法 |
CN105094136A (zh) * | 2015-09-14 | 2015-11-25 | 桂林电子科技大学 | 自适应麦克风阵列的声音定位救援机器人及其使用方法 |
CN205450778U (zh) * | 2016-03-29 | 2016-08-10 | 安徽工程大学 | 一种基于声音导向的救援机器人 |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN106823188A (zh) * | 2017-03-28 | 2017-06-13 | 西华大学 | 一种深井自动探测救援机器人及救援方法 |
CN106940186A (zh) * | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及系统 |
KR20170096448A (ko) * | 2016-02-16 | 2017-08-24 | 국방과학연구소 | 다중구조 필터를 이용한 위치추정 방법 및 이의 시스템 |
-
2017
- 2017-09-26 CN CN201710883307.4A patent/CN107544504B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165289A (ja) * | 2006-12-27 | 2008-07-17 | Alacom Co Ltd | ロボットシステム |
CN102288176A (zh) * | 2011-07-07 | 2011-12-21 | 中国矿业大学(北京) | 基于信息融合的煤矿救灾机器人导航系统及方法 |
CN105094136A (zh) * | 2015-09-14 | 2015-11-25 | 桂林电子科技大学 | 自适应麦克风阵列的声音定位救援机器人及其使用方法 |
KR20170096448A (ko) * | 2016-02-16 | 2017-08-24 | 국방과학연구소 | 다중구조 필터를 이용한 위치추정 방법 및 이의 시스템 |
CN205450778U (zh) * | 2016-03-29 | 2016-08-10 | 安徽工程大学 | 一种基于声音导向的救援机器人 |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN106940186A (zh) * | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及系统 |
CN106823188A (zh) * | 2017-03-28 | 2017-06-13 | 西华大学 | 一种深井自动探测救援机器人及救援方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107544504A (zh) | 2018-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107526360B (zh) | 一种未知环境下排爆机器人多阶自主导航探测系统及方法 | |
WO2017133453A1 (zh) | 一种运动人体跟踪方法和系统 | |
Lindstrom et al. | Detecting and tracking moving objects from a mobile platform using a laser range scanner | |
CN109186610B (zh) | 一种auv地形匹配导航的鲁棒bslam方法 | |
KR20200036677A (ko) | 청소 로봇 및 그의 태스크 수행 방법 | |
Liu et al. | The design of a fully autonomous robot system for urban search and rescue | |
Liu et al. | CNN-based vision model for obstacle avoidance of mobile robot | |
CN107544504B (zh) | 一种面向复杂环境的灾区救援机器人自主探测系统及方法 | |
Capi et al. | Neural network based guide robot navigation: an evolutionary approach | |
Demim et al. | Robust SVSF-SLAM algorithm for unmanned vehicle in dynamic environment | |
CN110610130A (zh) | 一种多传感器信息融合的输电线路机器人导航方法及系统 | |
Steckel et al. | Acoustic flow-based control of a mobile platform using a 3D sonar sensor | |
Hakim et al. | Navigation system for visually impaired people based on RGB-D camera and ultrasonic sensor | |
CN111026121A (zh) | 智能清扫车多层次立体避障控制方法及装置 | |
Wang et al. | Research on autonomous planning method based on improved quantum Particle Swarm Optimization for Autonomous Underwater Vehicle | |
Shaikh et al. | The state-of-the-art intelligent navigational system for monitoring in mobile autonomous robot | |
Su et al. | Robust sound source mapping using three-layered selective audio rays for mobile robots | |
TWM590450U (zh) | 穿載式導航避險裝置 | |
NL2019877B1 (en) | Obstacle detection using horizon-based learning | |
Tamas et al. | Lidar and vision based people detection and tracking | |
Palomer et al. | Multi-beam terrain/object classification for underwater navigation correction | |
Huang et al. | Multi-object detection, tracking and prediction in rugged dynamic environments | |
KR100755755B1 (ko) | 거품원을 사용하여 오반사된 초음파 센서 데이터를제거하는 방법 | |
Majumdar et al. | Intelligent vision system for door sensing mobile robot | |
Capi | Assisting and guiding visually impaired in indoor environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |