CN109461179A - 一种排爆子母机器人协作探测系统 - Google Patents
一种排爆子母机器人协作探测系统 Download PDFInfo
- Publication number
- CN109461179A CN109461179A CN201811207820.2A CN201811207820A CN109461179A CN 109461179 A CN109461179 A CN 109461179A CN 201811207820 A CN201811207820 A CN 201811207820A CN 109461179 A CN109461179 A CN 109461179A
- Authority
- CN
- China
- Prior art keywords
- robot
- child
- task
- female
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002360 explosive Substances 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000011897 real-time detection Methods 0.000 claims abstract description 4
- 230000013011 mating Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 5
- 230000008901 benefit Effects 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000012550 audit Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种排爆子母机器人协作探测系统,包括母机器人和3个子机器人,子机器人由母机器人携带,协作步骤如下:S1,母机器人确定前进方向;S2,母机器人构建三维地图;S3,判断是否释放子机器人;S4,确定子机器人的释放个数;S5,被释放的子机器人实时检测TNT分子浓度并记录;S6,被释放的子机器人得到环境点云数据反馈给母机器人;S7,构建全局环境三维地图,并在全局环境三维地图上进行标记;S8,母机器人对子机器人进行任务调整;S9,重复步骤S8对子机器人任务进行调整,直至排爆任务结束。本发明采用一个母机器人与三个子机器人结合的方式达到高效快速完成排爆工作的目的。
Description
技术领域
本发明属于排爆技术领域,具体涉及一种排爆子母机器人协作探测系统。
背景技术
排爆机器人是排爆人员用于处置或销毁爆炸可疑物的专用器材,避免了不必要的人员伤亡。它可用于多种复杂地形进行排爆,主要用于替代排爆人员搬运、转移爆炸可疑物品及其他有害危险品;代替排爆人员使用爆炸物销毁器销毁炸弹,代替现场安检人员进行实地勘察,实施传输现场图像;同时可配备散弹枪对犯罪分子进行攻击;排爆机器人所执行任务至关重要,要求检测精度较高,处理速度较快,但是对整体硬件要求也较高,导致现有排爆机器人体积、质量较大,灵活性较低,机器人无法进入某些复杂排爆区域;而且排爆机器人探测时,需要通过蓄电池为机器人工作提供能量,当其体积、质量过大时,单位时间内耗电量会大幅度增加,机器人工作时间急剧缩短;而现有某些简易型排爆机器人,检测精度和运算速度逊于大型排爆机器人,对信息处理不精准,延时较大,影响排爆工作进行效率。
发明内容
本发明针对现有排爆机器人要么体积大灵活性低,要么体积小信息处理不精准的技术问题,从而提供一种排爆子母机器人协作探测系统,本发明结合大型排爆机器人信息处理速度快,简易排爆机器人运动灵活性高的特点,通过机器人之间智能协同控制,在排爆区域内,实现对环境低成本探测、信息全面获取、实时处理信息,最终达到高效率排爆的目的。
为解决上述技术问题,本发明所采用的技术方案如下:
一种排爆子母机器人协作探测系统,包括母机器人和3个子机器人,子机器人由母机器人携带,协作步骤如下:
S1,母机器人进入排爆区,探测环境中TNT分子浓度,确定前进方向。
S2,母机器人采集环境的图像信息构建三维地图。
S2.1,母机器人通过深度相机采集环境的彩色图像和深度图像得到环境点云数据。
S2.2,母机器人通过激光雷达获得环境点云数据。
S2.3,母机器人将步骤S2.1的环境点云数据和步骤S2.2的环境点云数据融合得到环境的三维地图。
S3,判断是否释放子机器人。
S3.1,母机器人对环境的彩色图像利用surf算法进行环境特征提取。
S3.1.1,对彩色图像进行高斯滤波,得到预处理图像,表示为:
S3.1.2,构建图像尺度空间,进行特征点提取和特征点描述子的生成。
所述图像尺度空间由O组S层组成,并且在构建的图像尺度空间中,对每一个像素点P与其周围的26个像素点进行比较,定位特征点,并确保在图像尺度空间和二维图像空间中都能检测到极值点。
所述O组是构建的尺度空间的组数;S层是构建的尺度空间的每一组内的图像层数。
即利用收集到的现场图像构建一个用来进行特征提取的尺度空间,对原始图像不断降价采样,得到一系列大小不一的图像,由大到小、由下到上构成的金字塔状模型,在此模型中,采集到的原始图像为金字塔第一层,每次降采样所得到的新图像作为金字塔的一层,此时,每一层只有一张图像;为了更精确对图像进行处理,在简单降采样的基础上进一步增加了高斯滤波,将此时金字塔中每一层仅有的一张图像使用不同参数进行高斯模糊处理,使金字塔的每层含有同一张图像的不同高斯模糊图像,此时每一层内又分为多层,为了避免混淆,将通过同一张图像进行高斯模糊处理的图像合称为一组,每一组的不同参数的高斯模糊图像记为层。
即此时的组就是原来初始的层,每组含有多层图像。
S3.1.3,确定特征点的方向。
采集该特征点所在的图像尺度空间内像素的梯度和方向分布特征,使用统计图统计该特征点邻域内像素的梯度和方向,保留峰值80%的方向作为该特征点的辅方向。
S3.1.4,为每一个特征点建立一个描述子。
所述描述子为描述特征点特征的向量。
S3.1.4.1,确定计算描述子所需的图像区域半径为:
σ:尺度空间坐标;是计算描述子所需的窗口边长,即可得实际计算的图像区域半径为r;d表示将关键点附近的邻域划分为d*d个子区域。
S3.1.4.2,得到描述子;
对特征点八个方向的梯度进行差值累加计算并归一化处理,得到最终的特征向量为:
L=(l1,l2,l3,……);
得到的描述子向量为H=(h1,h2,……h128),故设hj是得到的描述子向量,其中j=1,2,3……,li为最终的特征向量。
S3.2,将步骤S3.1中的特征点与数据库中特征点进行匹配得到特征点的平均通过权值k。
采用深度学习的方式将当前环境的特征点与数据库中特征点与特征点描述子进行数据匹配。
并且在数据库中,以集合的形式进行特征点的表示,某个特征点索引为Xi,Xi与其特征点描述子aij进行链接,同时与其训练得到的平均权值K进行相应链接。
S3.3,将平均通过权值k与设定权值P比较,若k<p,则进行步骤S4-S9;若k≥p,则母机器人继续前进工作并重复步骤S1-S3,直至排爆任务结束。
S4,确定子机器人的释放个数。
按照母机器人当前所处位置中子机器人可通过区域判断应释放子机器人个数,并按照个的标准进行子机器人的释放。
机器人通过构建的三维地图可知机器人前方可通过区域的范围,以母机器人为中心,判断可通过区域的范围与中心点所组成的扇形的角度,然后按照个的标准进行子机器人的释放。
S5,被释放的子机器人在前进过程中实时检测所在位置的TNT分子浓度,并进行记录。
S6,被释放的子机器人,利用视觉传感器进行环境图像信息采集,得到环境点云数据,经过时间T后通过无线网络反馈给母机器人。
S7,母机器人根据子机器人得到的环境点云数据,构建全局环境三维地图,并将环境中TNT分子浓度以及子机器人实时位置在全局环境三维地图上进行标记。
S8,母机器人对子机器人进行任务调整。
S8.1,根据各子机器人反馈的浓度变化情况,确定需调整任务的子机器人。
针对浓度递减或不变的子机器人进行任务调整,对于对着探测时间延长TNT浓度随之增加的子机器人不做调整,继续按照初始任务计划进行环境探测。
S8.2,母机器人重新划分未探测的环境并广播给所有子机器人。
母机器人将未探测的环境划分为x块,x为需要进行任务调整的子机器人个数,且被划分的未探测的环境不包括原本划分给现在不需要做任务调整的子机器人的部分,并将当前全局环境三维地图以及x块环境探测任务通过广播发送给所有正在工作的子机器人。
S8.3,不需要做任务调整的子机器人接收到广播信息之后,更新内部存储地图,继续按照上次分配任务前进。
S8.4,当需要进行任务调整的子机器人接收到母机器人广播信息之后,子机器人依次针对划分的任务进行竞争。
S8.4.1,子机器人基于路程和时间分别计算自身完成该任务的成本。
S8.4.2,计算各子机器人完成任务的总效益。
S8.4.3,选择完成该任务效益最高的子机器人与该任务配对。
S8.4.4,母机器人对配对结果进行审核。
子机器人与任务配对结束后,将配对结果反馈给母机器人,母机器人面向全局对所有子机器人配对方案进行最终决策,若各子机器人之间和各子机器人配对的任务之间没有路线、时间冲突,则确认子机器人任务调整规划,并将确认信息广播发送给子机器人,子机器人按照任务配对情况去完成相应任务。
S9,每经过时间T,母机器人重复步骤S8对子机器人任务进行调整,直至排爆任务结束。
本发明中共包含4个机器人,分别是1个母机器人,即传统大型排爆机器人,3个子机器人,即简易机器人。当子机器人不工作时,子机器人由母机器人携带移动,便于母机器人随时释放子机器人。并且设置3个子机器人的原因如下:若母机器人处于较为空旷的区域(如:地下停车场)时,单单使用母机器人进行环境探测,时间成本较高,此时,系统需要释放子机器人;若释放子机器人小于3个,则系统分配给每一个子机器人的任务量过大,进而影响整个系统的工作效率;若释放的子机器人个数大于3个,则母机器人接收子机器人数据之后进行坐标转换的时间增加,系统工作实时性减弱,影响系统工作效率和工作精度;故本发明采用一个母机器人与三个子机器人结合的方式达到高效快速完成排爆工作的目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明母机器人释放子机器人流程图。
图2为本发明子母机器人协同作业示意图。
图3为本发明子母机器人信息传递示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种排爆子母机器人协作探测系统,包括母机器人和3个子机器人,子机器人由母机器人携带,协作步骤如下:
S1,母机器人进入排爆区,探测环境中TNT分子浓度,确定前进方向。
S2,母机器人采集环境的图像信息构建三维地图。
S2.1,母机器人通过深度相机采集环境的彩色图像和深度图像得到环境点云数据。
S2.2,母机器人通过激光雷达获得环境点云数据。
S2.3,母机器人将步骤S2.1的环境点云数据和步骤S2.2的环境点云数据融合得到环境的三维地图。
S3,判断是否释放子机器人,过程示意图如图1所示。
S3.1,母机器人对环境的彩色图像利用surf算法进行环境特征提取。
S3.1.1,对彩色图像进行高斯滤波,得到预处理图像,表示为:
S3.1.2,构建图像尺度空间,进行特征点提取和特征点描述子的生成。
所述图像尺度空间由O组S层组成,并且在构建的图像尺度空间中,对每一个像素点P与其周围的26个像素点进行比较,定位特征点,并确保在图像尺度空间和二维图像空间中都能检测到极值点。
所述O组是构建的尺度空间的组数;S层是构建的尺度空间的每一组内的图像层数。
这个步骤的意思即利用收集到的现场图像构建一个用来进行特征提取的尺度空间,对原始图像不断降价采样,得到一系列大小不一的图像,由大到小、由下到上构成的金字塔状模型,在此模型中,采集到的原始图像为金字塔第一层,每次降采样所得到的新图像作为金字塔的一层,此时,每一层只有一张图像;为了更精确对图像进行处理,在简单降采样的基础上进一步增加了高斯滤波,将此时金字塔中每一层仅有的一张图像使用不同参数进行高斯模糊处理,使金字塔的每层含有同一张图像的不同高斯模糊图像,此时每一层内又分为多层,为了避免混淆,将通过同一张图像进行高斯模糊处理的图像合称为一组,每一组的不同参数的高斯模糊图像记为层。
即此时的组就是原来初始的层,每组含有多层图像。
S3.1.3,确定特征点的方向。
采集该特征点所在的图像尺度空间内像素的梯度和方向分布特征,使用统计图统计该特征点邻域内像素的梯度和方向,保留峰值80%的方向作为该特征点的辅方向。
S3.1.4,为每一个特征点建立一个描述子。
所述描述子为描述特征点特征的向量。
S3.1.4.1,确定计算描述子所需的图像区域半径为:
σ:尺度空间坐标;是计算描述子所需的窗口边长,即可得实际计算的图像区域半径为r;d表示将关键点附近的邻域划分为d*d个子区域。
S3.1.4.2,得到描述子;
对特征点八个方向的梯度进行差值累加计算并归一化处理,得到最终的特征向量为:
L=(l1,l2,l3,……);
得到的描述子向量为H=(h1,h2,……h128),故设hj是得到的描述子向量,其中j=1,2,3……,li为最终的特征向量。
S3.2,将步骤S3.1中的特征点与数据库中特征点进行匹配得到特征点的平均通过权值k。
采用深度学习的方式将当前环境的特征点与数据库中特征点与特征点描述子进行数据匹配。
并且在数据库中,以集合的形式进行特征点的表示,某个特征点索引为Xi,Xi与其特征点描述子aij进行链接,同时与其训练得到的平均权值K进行相应链接。
S3.3,将平均通过权值k与设定权值P比较,若k<p,则进行步骤S4-S9;若k≥p,则母机器人继续前进工作并重复步骤S1-S3,直至排爆任务结束。
S4,确定子机器人的释放个数。
按照母机器人当前所处位置中子机器人可通过区域判断应释放子机器人个数,并按照个的标准进行子机器人的释放。
S5,被释放的子机器人在前进过程中实时检测所在位置的TNT分子浓度,并进行记录。
S6,被释放的子机器人,利用视觉传感器进行环境图像信息采集,得到环境点云数据,经过时间T后通过无线网络反馈给母机器人。
S7,母机器人根据子机器人得到的环境点云数据,构建全局环境三维地图,并将环境中TNT分子浓度以及子机器人实时位置在全局环境三维地图上进行标记。
S8,母机器人对子机器人进行任务调整。
S8.1,根据各子机器人反馈的浓度变化情况,确定需调整任务的子机器人。
针对浓度递减或不变的子机器人进行任务调整,对于对着探测时间延长TNT浓度随之增加的子机器人不做调整,继续按照初始任务计划进行环境探测。
S8.2,母机器人重新划分未探测的环境并广播给所有子机器人。
母机器人将未探测的环境划分为x块,x为需要进行任务调整的子机器人个数,且被划分的未探测的环境不包括原本划分给现在不需要做任务调整的子机器人的部分,并将当前全局环境三维地图以及x块环境探测任务通过广播发送给所有正在工作的子机器人。
S8.3,不需要做任务调整的子机器人接收到广播信息之后,更新内部存储地图,继续按照上次分配任务前进。
S8.4,当需要进行任务调整的子机器人接收到母机器人广播信息之后,子机器人依次针对划分的任务进行竞争。
S8.4.1,子机器人基于路程和时间分别计算自身完成该任务的成本。
S8.4.2,计算各子机器人完成任务的总效益。
S8.4.3,选择完成该任务效益最高的子机器人与该任务配对。
S8.4.4,母机器人对配对结果进行审核。
子机器人与任务配对结束后,将配对结果反馈给母机器人,母机器人面向全局对所有子机器人配对方案进行最终决策,若各子机器人之间和各子机器人配对的任务之间没有路线、时间冲突,则确认子机器人任务调整规划,并将确认信息广播发送给子机器人,子机器人按照任务配对情况去完成相应任务。
S9,每经过时间T,母机器人重复步骤S8对子机器人任务进行调整,直至排爆任务结束。
本发明子母机器人之间采用分布决策-中央协调(混合式)结构,采用动态分区法对环境进行探测,两者之间的协作过程如图2所示,信息传递过程如图3所示。即母机器人为整个系统的中央协调者,它为每一个子机器人分布初始任务和运动方向,子机器人在运动时间T之后,通过母机器人反馈回的全局环境信息及自身状态,从自身局部利益出发对当前的行动路线进行重新评估,得到探测成本最低的决策建议,将该建议提交给母机器人,母机器人对每台子机器人的决策建议进行总体评估和最终决策,若子机器人的决策建议对系统整体工作没有损害,甚至能获得更好的系统效益,则采纳该子机器人决策建议;否则将该子机器人的决策建议,子机器人仍然按照母机器人初始为其分配任务行动。
上面所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种排爆子母机器人协作探测系统,其特征在于,包括母机器人和3个子机器人,子机器人由母机器人携带,协作步骤如下:
S1,母机器人进入排爆区,探测环境中TNT分子浓度,确定前进方向;
S2,母机器人采集环境的图像信息构建三维地图;
S3,判断是否释放子机器人;
S4,确定子机器人的释放个数;
按照母机器人当前所处位置,子机器人可通过区域判断应释放子机器人个数,并按照/个的标准进行子机器人的释放;
S5,被释放的子机器人在前进过程中实时检测所在位置的TNT分子浓度,并进行记录;
S6,被释放的子机器人,利用视觉传感器进行环境图像信息采集,得到环境点云数据,经过时间T后通过无线网络反馈给母机器人;
S7,母机器人根据子机器人得到的环境点云数据,构建全局环境三维地图,并将环境中TNT分子浓度以及子机器人实时位置在全局环境三维地图上进行标记;
S8,母机器人对子机器人进行任务调整;
S9,每经过时间T,母机器人重复步骤S8对子机器人任务进行调整,直至排爆任务结束。
2.根据权利要求1所述的排爆子母机器人协作探测系统,其特征在于,在步骤S2中,具体步骤为:S2.1,母机器人通过深度相机采集环境的彩色图像和深度图像得到环境点云数据;
S2.2,母机器人通过激光雷达获得环境点云数据;
S2.3,母机器人将步骤S2.1的环境点云数据和步骤S2.2的环境点云数据融合得到环境的三维地图。
3.根据权利要求1所述的排爆子母机器人协作探测系统,其特征在于,在步骤S3中,具体步骤为:
S3.1,母机器人对环境的彩色图像利用surf算法进行环境特征提取;
S3.1.1,对彩色图像进行高斯滤波,得到预处理图像,表示为:
S3.1.2,构建图像尺度空间,进行特征点提取和特征点描述子的生成;
所述图像尺度空间由O组S层组成,并且在构建的图像尺度空间中,对每一个像素点P与其周围的26个像素点进行比较,定位特征点,并确保在图像尺度空间和二维图像空间中都能检测到极值点;
S3.1.3,确定特征点的方向;
采集该特征点所在的图像尺度空间内像素的梯度和方向分布特征,使用统计图统计该特征点邻域内像素的梯度和方向,保留峰值80%的方向作为该特征点的辅方向;
S3.1.4,为每一个特征点建立一个描述子;
所述描述子为描述特征点特征的向量;
S3.1.4.1,确定计算描述子所需的图像区域半径为:
σ:尺度空间坐标;是计算描述子所需的窗口边长,即可得实际计算的图像区域半径为r;d表示将关键点附近的邻域划分为d*d个子区域。
S3.1.4.2,得到描述子;
对特征点八个方向的梯度进行差值累加计算并归一化处理,得到最终的特征向量为:
L=l1,l2,l3,……);
hj是得到的描述子向量,其中j=1,2,3……,li为最终的特征向量;
S3.2,将步骤S3.1中的特征点与数据库中特征点进行匹配得到特征点的平均通过权值k;
采用深度学习的方式将当前环境的特征点与数据库中特征点与特征点描述子进行数据匹配;
并且在数据库中,以集合的形式进行特征点的表示,某个特征点索引为Xi,Xi与其特征点描述子aij进行链接,同时与其训练得到的平均权值K进行相应链接;
S3.3,将平均通过权值k与设定权值P比较,若k<p,则进行步骤S4-S9;若k≥p,则母机器人继续前进工作并重复步骤S1-S3,直至排爆任务结束。
4.根据权利要求1所述的排爆子母机器人协作探测系统,其特征在于,在步骤S8中,具体步骤为:
S8.1,根据各子机器人反馈的浓度变化情况,确定需调整任务的子机器人;
针对浓度递减或不变的子机器人进行任务调整,对于对着探测时间延长TNT浓度随之增加的子机器人不做调整,继续按照初始任务计划进行环境探测;
S8.2,母机器人重新划分未探测的环境并广播给所有子机器人;
母机器人将未探测的环境划分为x块,x为需要进行任务调整的子机器人个数,且被划分的未探测的环境不包括原本划分给现在不需要做任务调整的子机器人的部分,并将当前全局环境三维地图以及x块环境探测任务通过广播发送给所有正在工作的子机器人;
S8.3,不需要做任务调整的子机器人接收到广播信息之后,更新内部存储地图,继续按照上次分配任务前进;
S8.4,当需要进行任务调整的子机器人接收到母机器人广播信息之后,子机器人依次针对划分的任务进行竞争。
5.根据权利要求4所述的排爆子母机器人协作探测系统,其特征在于,在步骤S8.4中,具体步骤为:
S8.4.1,子机器人基于路程和时间分别计算自身完成该任务的成本;
S8.4.2,计算各子机器人完成任务的总效益;
S8.4.3,选择完成该任务效益最高的子机器人与该任务配对;
S8.4.4,母机器人对配对结果进行审核;
子机器人与任务配对结束后,将配对结果反馈给母机器人,母机器人面向全局对所有子机器人配对方案进行最终决策,若各子机器人之间和各子机器人配对的任务之间没有路线、时间冲突,则确认子机器人任务调整规划,并将确认信息广播发送给子机器人,子机器人按照任务配对情况去完成相应任务;
S9,每经过时间T,母机器人重复步骤S8对子机器人任务进行调整,直至排爆任务结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811207820.2A CN109461179B (zh) | 2018-10-17 | 2018-10-17 | 一种排爆子母机器人协作探测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811207820.2A CN109461179B (zh) | 2018-10-17 | 2018-10-17 | 一种排爆子母机器人协作探测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109461179A true CN109461179A (zh) | 2019-03-12 |
CN109461179B CN109461179B (zh) | 2021-07-09 |
Family
ID=65607790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811207820.2A Active CN109461179B (zh) | 2018-10-17 | 2018-10-17 | 一种排爆子母机器人协作探测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109461179B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101177A (zh) * | 2020-09-09 | 2020-12-18 | 东软睿驰汽车技术(沈阳)有限公司 | 地图构建方法、装置及运载工具 |
CN117195744A (zh) * | 2023-10-16 | 2023-12-08 | 南京工业大学 | 一种子母式移动机器人协同穿越的通过性迁移评价方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140031983A1 (en) * | 2011-03-23 | 2014-01-30 | Sri International | Dexterous telemanipulator system |
CN107483096A (zh) * | 2017-09-18 | 2017-12-15 | 河南科技学院 | 一种面向复杂环境的自主排爆机器人通信链路重构方法 |
CN107526360A (zh) * | 2017-09-26 | 2017-12-29 | 河南科技学院 | 一种未知环境下排爆机器人多阶自主导航探测系统及方法 |
-
2018
- 2018-10-17 CN CN201811207820.2A patent/CN109461179B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140031983A1 (en) * | 2011-03-23 | 2014-01-30 | Sri International | Dexterous telemanipulator system |
CN107483096A (zh) * | 2017-09-18 | 2017-12-15 | 河南科技学院 | 一种面向复杂环境的自主排爆机器人通信链路重构方法 |
CN107526360A (zh) * | 2017-09-26 | 2017-12-29 | 河南科技学院 | 一种未知环境下排爆机器人多阶自主导航探测系统及方法 |
Non-Patent Citations (4)
Title |
---|
LEI CAI等: ""Control system of the explosive ordnance disposal robot based on active eye-to-hand binocular vision"", 《INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE AND COMPUTATIONAL INTELLIGENCE》 * |
WOLFRAM SCHOOR等: ""Realistic training simulations of explosive ordnance disposal & improvised explosive device disposal robots"", 《IEEE 10TH INTERNATIONAL CONFERENCE ON INDUSTRIAL INFORMATICS》 * |
王少伟等: ""基于触屏控制的遥操作排爆机器人设计"", 《机械与电子》 * |
蔡磊等: ""模糊小波神经网络控制器在隧进殉爆控制系统中的应用"", 《电光与控制》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101177A (zh) * | 2020-09-09 | 2020-12-18 | 东软睿驰汽车技术(沈阳)有限公司 | 地图构建方法、装置及运载工具 |
CN117195744A (zh) * | 2023-10-16 | 2023-12-08 | 南京工业大学 | 一种子母式移动机器人协同穿越的通过性迁移评价方法 |
CN117195744B (zh) * | 2023-10-16 | 2024-04-05 | 南京工业大学 | 一种子母式移动机器人协同穿越的通过性迁移评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109461179B (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107667521B (zh) | 个人感测无人机 | |
CN105719421B (zh) | 一种基于大数据挖掘的集成化森林防火信息化系统 | |
US10378863B2 (en) | Smart wearable mine detector | |
US6289331B1 (en) | Fire detection systems using artificial intelligence | |
DE102009009896B4 (de) | Verfahren und Vorrichtung zur Erfassung von Zielobjekten | |
CN108171796A (zh) | 一种基于三维点云的巡检机器人视觉系统及控制方法 | |
CN108137153A (zh) | 用于无人机的装置、系统和方法 | |
CN108037770A (zh) | 基于人工智能的无人机输电线路巡检系统和方法 | |
CN107544541A (zh) | 一种无人机控制方法及系统 | |
CN106683091A (zh) | 一种基于深度卷积神经网络的目标分类及姿态检测方法 | |
CN107397658B (zh) | 一种多尺度全卷积网络及视觉导盲方法和装置 | |
CN109461179A (zh) | 一种排爆子母机器人协作探测系统 | |
CN103869824A (zh) | 基于生物触角模型的多机器人水下目标搜寻方法及装置 | |
CN110058606A (zh) | 电力线路运维检修系统及方法 | |
CN108416493A (zh) | 一种考虑偏流角约束的敏捷成像卫星任务规划方法 | |
CN107316457B (zh) | 判断道路交通状况是否符合汽车自动驾驶的方法 | |
CN107783119A (zh) | 应用在避障系统中的决策融合方法 | |
WO2018103716A1 (zh) | 复合飞行控制方法和系统、飞行器 | |
CN110188482A (zh) | 一种基于智能驾驶的测试场景创建方法及装置 | |
Liu et al. | Multi-objective evolutionary approach for UAV cruise route planning to collect traffic information | |
Leng et al. | Multi-UAV surveillance over forested regions | |
CN114152253B (zh) | 基于深度学习和大数据的全天候徒步旅行辅助系统及方法 | |
CN108973995A (zh) | 用于辅助驾驶的环境感知数据处理方法、装置及车辆 | |
KR102350668B1 (ko) | 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법 | |
Govindaraju et al. | Visibility-based UAV path planning for surveillance in cluttered environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |