CN110007671A - 一种机器人集群协同定位系统和方法 - Google Patents

一种机器人集群协同定位系统和方法 Download PDF

Info

Publication number
CN110007671A
CN110007671A CN201910185193.5A CN201910185193A CN110007671A CN 110007671 A CN110007671 A CN 110007671A CN 201910185193 A CN201910185193 A CN 201910185193A CN 110007671 A CN110007671 A CN 110007671A
Authority
CN
China
Prior art keywords
robot
sile
fen
distance
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910185193.5A
Other languages
English (en)
Inventor
黄骏
史玉回
张耿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southern University of Science and Technology
Original Assignee
Southern University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southern University of Science and Technology filed Critical Southern University of Science and Technology
Priority to CN201910185193.5A priority Critical patent/CN110007671A/zh
Publication of CN110007671A publication Critical patent/CN110007671A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人集群协同定位系统,利用芬斯勒几何进行协同定位,机器人集群由多个机器人组成,每个机器人的组成结构包括:视觉采集器、三栖滚动牵引转轮和芬斯勒自动运算模块,其中视觉采集器,用于采集协同定位的视觉定位图像,芬斯勒自动运算模块将采集的视觉定位图像转换成对应的芬斯勒距离偏差,最后三栖滚动牵引转轮根据转换的芬斯勒距离偏差调整机器人在整个机器人集群中的相对位置,实现协同定位,避免因为单一机器人的操作失误导致检测任务失败的结果,提供的一种即时、简单、高效的机器人集群协同定位系统可以应用于多种作业场景,提高灾害的管理水平,有效减少事故的发生,促进产业健康发展。

Description

一种机器人集群协同定位系统和方法
技术领域
本发明涉及机器人协同控制领域,尤其是一种机器人集群协同定位系统和方法。
背景技术
目前工业生产过程中,有相当一部分作业的生产环境仍是相对恶劣,例如海上油井生产作业,工人工作风险系数较高,而井面摸黑作业对生产管理有实时性要求,因此对环境的检测就显得尤为重要,例如在海上油井平台更换开采位置或作业时遇上台风的情况,进行环境检测的人工成本开销非常大,并且台风等恶劣天气时,环境检测人员安全很难得到保障,如果有安全事故发生时,由于事故发生的不确定性,需要在事故发生后依据现场情况,采取果断快速的反应措施进行事故处理,实现对井面人员进行全方位紧急抢救,此时需要引入机器人来完成恶劣环境与状态检测,但是常见的使用无人机时,实际过程中无人机叶片非常容易被海风吹坏,然后无人机掉到海里导致不能继续工作,因此需要提出一种适用于恶劣环境或灾害场景的能够协同定位工作的机器人集群系统,避免因为单一机器人的操作失误导致检测任务失败的结果。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的目的是提供一种适用于恶劣环境或灾害场景的能够协同定位工作的机器人集群系统和方法。
本发明所采用的技术方案是:
第一方面,本发明提供一种机器人集群协同定位系统,所述机器人集群由多个机器人组成,所述机器人的组成结构包括:
视觉采集器,用于采集协同定位的视觉定位图像;
芬斯勒自动运算模块,用于将所述视觉定位图像转换成对应的芬斯勒距离偏差;
三栖滚动牵引转轮,用于根据所述芬斯勒距离偏差调整机器人的相对位置。
进一步地,所述视觉采集器包括以下至少一种波长的摄像机:红外波段摄像机、红光波段摄像机、绿光波段摄像机、蓝光波段摄像机和紫外光波段摄像机。
进一步地,所述三栖滚动牵引转轮包括直流无刷电机组、摆线滚翼桨、护栏地滚轮和调速齿轮箱;
所述直流无刷电机用于分别带动所述摆线滚翼桨、所述护栏地滚轮和所述调速齿轮箱运动,以根据所述芬斯勒距离偏差调整机器人的相对位置,其中,
所述摆线滚翼浆用于当所述机器人处于空中运动状态或水面运动状态时,为机器人提供空气或水面的驱动力;
所述护栏地滚轮用于当所述机器人处于地面运动状态时,提供滚动的摩擦力;
所述调速齿轮箱用于根据所述机器人不同的运动状态,调节所述机器人的运转速度和运动方向。
进一步地,所述芬斯勒自动运算模块包括输入综合器和几何计算器;
所述输入综合器用于根据所述视觉定位图像获取视觉距离;
所述几何计算器用于根据芬斯勒转换方式将所述视觉距离转换为芬斯勒距离。
进一步地,所述输入综合器包括距离采集模块和距离去噪模块,所述距离采集模块用于根据距离获取方法将所述摄像机采集的视觉定位图像转换为粗略视觉距离,所述距离去噪模块对所述视觉距离进行平均加权和滤波,得到精确视觉距离。
进一步地,所述芬斯勒转换方式具体为:
AE=(xy)/2
df=AE-AF+S
其中,x表示当前机器人与相邻机器人在东西方向上的欧几里得距离,称为左右偏距,y表示当前机器人与相邻机器人在南北方向上的欧几里得距离,称为前后偏距,AE表示第一芬斯勒参数,AF表示第二芬斯勒距离参数,df表示芬斯勒距离偏差,S是最小安全距离。
进一步地,所述根据所述芬斯勒距离偏差调整机器人的相对位置具体包括以下调整方式:远离、靠近和保持不变;
当df>S时,机器人靠近与其距离最接近的机器人;
当df<S时,机器人远离与其距离最接近的机器人;
当df=S时,机器人的位置保持不变。
第二方面,本发明提供一种机器人集群协同定位方法,应用于第一方面任一项所述的一种机器人集群协同定位系统,包括步骤:
判断当前工作状态,机器人根据当前工作状态打开对应波长的视觉采集器,获取用于视觉定位的视觉图像,所述当前工作状态包括:无紧急状况,地面紧急情况、空中紧急情况和水面紧急情况;
所述芬斯勒自动运算模块采用芬斯勒转换方式,将所述视觉采集器获取的所述视觉图像转换成对应的芬斯勒距离;
所述机器人根据所述芬斯勒距离通过所述三栖滚动牵引转轮调整自己与相邻机器人之间的距离。
进一步地,还包括步骤:
利用图像匹配算法匹配目标图像,得出目标类型;
根据所述目标类型采取相应的处理措施。
本发明的有益效果是:
本发明提供一种机器人集群协同定位系统,利用芬斯勒几何进行协同定位,机器人集群由多个排列方式为超齐结构的机器人组成,每个机器人的组成结构包括:视觉采集器、三栖滚动牵引转轮和芬斯勒自动运算模块,其中视觉采集器,用于采集协同定位的视觉定位图像,芬斯勒自动运算模块将采集的视觉定位图像转换成对应的芬斯勒距离偏差,最后三栖滚动牵引转轮根据转换的芬斯勒距离偏差调整机器人在整个机器人集群中的相对位置,实现协同定位,避免因为单一机器人的操作失误导致检测任务失败的结果。本发明能够完成对作业环境数字化和智能化检测,以及对作业人员的实时状态跟踪监测和定位,当发生灾害时,可立即从监控计算机上查询事故现场的灾害位置分布情况、为事故抢险提供科学依据,提供的一种即时、简单、高效的机器人集群协同定位系统可以应用于多种作业场景,提高灾害的管理水平,有效减少事故的发生,促进产业健康发展。
附图说明
图1是本发明中机器人集群协同定位系统的一具体实施例的组成示意图;
图2是鸟类视锥细胞的分布示意图;
图3是本发明中机器人集群协同定位系统的一具体实施例的机器人结构示意图;
图4是芬斯勒度量和欧几里得度量示意图;
图5是本发明中机器人集群协同定位方法的一具体实施例的流程示意图。
具体实施方式
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明提供一种一种即时、简单、高效的机器人集群协同定位系统,能够应用于多种作业场景,实现对环境和作业人员的检测和管控。实施例一提供一种机器人集群协同定位系统。
图1为本发明实施例提供的一种机器人集群协同定位系统的组成示意图,本发明可以用在多种不同恶劣环境或灾害场景,例如油井系统、地下或露天煤矿防自燃的环境检测、活火山口的环境检测、需要驱鸟的海边机场、需要救生的港口游轮以及需要灭火的油轮等作业环境,如图1所示,本实施例的机器人集群由多个机器人组成,图中机器人集群排列仅作示意不做限定,机器人集群中机器人排列方式为超齐结构,每个机器人的组成结构均包括:视觉采集器、三栖滚动牵引转轮和芬斯勒自动运算模块。
其中,视觉采集器,用于采集协同定位的视觉定位图像;芬斯勒自动运算模块,用于将所述视觉定位图像转换成对应的芬斯勒距离偏差;三栖滚动牵引转轮,用于根据芬斯勒距离偏差调整机器人的相对位置。
下面详细介绍本实施例中超齐结构。
研究发现,人类的视网膜有三种随机排列的锥细胞,从而可以感知三种颜色,而鱼类的视网膜有四种整齐排列的锥细胞,可以感知包含紫外光的四种颜色,而鸟类的视网膜有五种锥细胞,可以感知包含红外光的五种色彩,鸟类的五种视锥细胞大小各不相同,光波长不一样迫使它们大小排列无序化,但是在演化过程中激烈的竞争又希望视网膜能够尽可能在各种环境下均匀地感光,即同种颜色感受细胞相距尽可能远的距离,因此鸟类视网膜的锥细胞排列方式呈现出来的一种貌似无序但又超整齐的排列。
如图2所示,为鸟类视锥细胞的分布示意图,图中可见,鸟类用来感知色彩的视锥细胞以斑点状的形态呈现出5种不同大小和颜色,这些视锥细胞的斑点并没有什么特定的分散规律,但是不同斑点之间的距离总是不远不近,无论是单独考察5种不同视锥细胞的任意一种,还是同时考察所有的视锥细胞,它们都呈现出一种随机与秩序的统一,兼具偶然性和高度均匀性的分布模式,这种鸟类视锥细胞的分布结构称为“超齐结构”。
另外,不仅仅是鸟类的眼睛,准晶体、随机数阵、宇宙的大尺度结构,甚至乳浊液和胶质等软物质系统中都存在“超齐结构”。因此本实施例把机器人做成类鸟机器人,组成类鸟群的机器人集群系统,各机器人的排列结构为超齐结构。
本实施例中,将满足最大随机堵塞(Random Close Pack)的结构体定义为超齐结构体,也就是大小不同的固体颗粒装进一个容器,装入最多的数量的时候形成的结构,由于一般颗粒的体积占到容器的体积的64%到74%之间,因此占比越高,其结构越均匀,本实施例中,让机器人以最均匀的状态覆盖要检测的环境区域,每一个机器人的覆盖范围可以认为是一个球体,那则利用超齐结构可以将待检测区域的空间塞满,使其尽量不留空隙即可。
本实施例中机器人的视觉采集器包括一下多种类型波长的摄像机,例如红外波段摄像机、红光波段摄像机、绿光波段摄像机、蓝光波段摄像机和紫外光波段摄像机,将其按需进行组合,其组合方式根据当前工作状态决定,当前工作状态包括:无紧急状况,地面紧急情况、空中紧急情况和水面紧急情况,具体的如下所述。
当处于无紧急状况时,机器人的视觉采集器模仿人眼工作机制,打开蓝光波段摄像机;
当处于地面紧急情况时,机器人的视觉采集器采用俯瞰视觉图像采集,依次打开红光波段摄像机和绿光波段摄像机;
当处于空中紧急情况时,机器人的视觉采集器模仿鸟眼工作机制,部分机器人打开红外波段摄像机,并关闭红光波段摄像机;
当处于水面紧急情况时,机器人的视觉采集器模仿鱼眼工作机制,部分机器人打开紫外波段摄像机,并关闭蓝光波段摄像机;
这里切换摄像机的机器人是自动选择的,例如当机器人的红光光谱的平均光强超过或者低于预设的红光光谱阀值时,机器人切换成红外波段摄像机,这里机器人是自动检测进行切换,不对机器人集群中的机器人做指定切换。
上述几种情况下,机器人开关摄像机以后,会调整运动方向重新编队,机器人的运动轨迹始终保持超齐结构覆盖待检测区域。
图3是本实施例中机器人的结构示意图,图中可见本实施例的机器人具有四个方位的三栖滚动牵引转轮,其中每个三栖滚动牵引转轮均包含:直流无刷电机、摆线滚翼桨、护栏地滚轮和调速齿轮箱,其中直流无刷电机用于提供动力,摆线滚翼浆用于提供空气或水面的驱动力,护栏地滚轮用于当机器人在地面运动状态时,提供滚动的摩擦力,而调速齿轮箱用于根据机器人的运动状态,调节机器人的运转速度和运动方向,例如当左边的调速齿轮箱转动速度快,右边的调速齿轮箱转动慢,机器人就向右拐弯,依次类推,实现对机器人运转速度和运动方向的调节。
本实施例的机器人通过四个方向的三栖滚动牵引转轮驱动,能够获得两轮驱动的双倍驱动力,启动过程和加速性能都更好,而且可以利用前后轮的速度差异提高爬升能力,使得转弯性能好、直线行驶更稳定、车轮抗外界环境干扰能力强。
本实施例的机器人可以实现三栖特性,首先机器人采用摆线滚翼桨,可以在空气中和水中工作,且不容易被风吹坏,如果被吹落到地面上,就通过护栏地滚轮改成地面滚动模式。
图4是芬斯勒度量和欧几里得度量示意图,图中Euclid表示欧几里得,Finsler表示芬斯勒,橄榄球面代表芬斯勒度量,球面代表欧几里得度量,x与y表示机器人位置的平面坐标,z表示机器人离开原点的距离,芬斯勒度量体系中,两者距离越近,度量比例缩小,距离越远,度量比例放大,而在欧几里得度量体系中,不管两者距离远近,其度量比例都一样,不放大,也不缩小。
芬斯勒自动运算模块包括输入综合器和几何计算器,其中,输入综合器包括距离采集模块和距离去噪模块,距离采集模块用于根据距离获取方法将不同波长的摄像机采集的视觉定位图像转换为粗略视觉距离,距离去噪模块对视觉距离进行加权平均和滤波,得到精确视觉距离,几何计算器用于根据芬斯勒转换方式将精确视觉距离转换为芬斯勒距离。
上述加权平均的方法具体位置:根据摄像机拍摄到目标物体的清晰度选择权重进行加权平均,例如清晰度高的权重大,清晰度低的权重小,而芬斯勒几何的特点就是近的权重大,远的权重小,因此能够用在本实施例的系统中。
具体的芬斯勒转换方式为:
AE=(xy)/2
df=AE-AF+S
其中,x表示当前机器人与相邻机器人在东西方向上的欧几里得距离,称为左右偏距,y表示当前机器人与相邻机器人在南北方向上的欧几里得距离,称为前后偏距,AE表示第一芬斯勒参数,AF表示第二芬斯勒距离参数,df表示芬斯勒距离的偏差,S是最小安全距离。
根据芬斯勒距离偏差调整机器人的相对位置具体包括以下调整方式:远离、靠近和保持不变,确保不同波段的视觉采集器的机器人构成超齐结构,其中:
当df>S时,机器人靠近与其距离最接近的机器人;
当df<S时,机器人远离与其距离最接近的机器人;
当df=S时,机器人的位置保持不变。
靠近或远离时,每个光谱的摄像机检测的移动量表示为:Δi=ki(AEi-AFi),这里ki是预设的比例系数,与本类型光谱的摄像机在机器人集群中的多少成反比,例如:i=1时,表示红外光谱,i=2时,表示红外光谱,i=3时,表示绿光谱,i=4时,表示蓝光谱,i=5时,表示紫外光谱,将不同类型的光谱摄像机检测的相对距离推算出的调整移动量做平均,作为移动距离。
本实施例的一种机器人集群协同定位系统的一种硬件实现方式如下所述。
硬件系统由控制器和感知设备组成,具体分为系统层、驱动层、磁感应设备和光感应设备构成,其中系统层是整个硬件系统中最重要的部分,采用SOPC与FPGA技术,主要完成下列功能:系统的整体控制、三栖滚动牵引转轮分别的操控、视觉定位信号处理和目标模式识别,本实施例中系统层采用的芯片是树莓系统。
驱动层为调速齿轮箱提供驱动信号,采用LION 3S型号电池,该电池电压为11.1V,容量为2200mAh,放电倍率为30C,采用SkyWalker 30A银燕KV980型号电机。
另外,机器人整机骨架全部采用碳钎维,摆线滚翼桨采用3D打印的PVC材质制成,光感应设备即视觉采集器采用美国加州Stardot公司的Netcam多光谱模块,磁感应设备为Mag3110惯性定位指南针,惯性导航设备实现视觉定位编队的控制。
本实施例的一种机器人集群协同定位系统能够实现多光谱测距功能、方位检测功能、目标检测识别功能。
其中,多光谱测距功能,采集前后上下左右6个方向五种波段的视觉信号,进行信号采样、量化处理转换成数字RGB信号,进行信号处理,如信号增强、信号去噪音、信号复原等方式,对RGB信号进行特征处理并滤波,提取距离特征,如边缘轮廓大小等,利用近大远小的原理,推算与目标的实际距离。例如机器人是直径一米的圆形机器人,其与目标物体相距20米的时,在摄像机采集的图像上占20个像素,则当图像中只有10个像素的时候,可以根据近大远小的远离进行类推,得出目标物体与机器人的距离是40米。
方位检测功能,指利用磁感应设备,快速采样以辨别东南西北四个方向,并与采集的图像中目标方位进行比对,判断机器人运动方向是否正确。
目标检测识别功能,指在模板库中比对采集到的图像的形状,分析背景和目标,根据不同的背景改变机器人的工作状态,根据采集到的目标判断是否是任务中需要捕获跟踪的目标,并根据不同的目标类型执行不同的行为,例如当本系统用于在机场驱鸟时,播放指定的驱逐音,快速驱赶海边机场附近的海鸥,鸽子等飞鸟,防止飞机起降过程撞机的事故,如应用在拯救落水人员时,投放指定大小的救生圈等。
实施例二:
如图5所示,为本实施例的一种机器人集群协同定位方法流程示意图,应用于实施例一描述的一种机器人集群协同定位系统,该方法包括步骤,
1)判断当前工作状态,机器人根据当前工作状态打开对应波长的视觉采集器,获取用于视觉定位的视觉图像,当前工作状态包括:无紧急状况,地面紧急情况、空中紧急情况和水面紧急情况;
2)芬斯勒自动运算模块采用芬斯勒转换方式,将视觉采集器获取的视觉图像转换成对应的芬斯勒距离偏差;
3)机器人根据芬斯勒距离偏差通过三栖滚动牵引转轮调整自己与相邻机器人之间的距离;
4)利用图像匹配算法匹配目标图像,得出目标类型,并根据目标类型采取相应的处理措施。
本发明提供一种机器人集群协同定位系统,利用芬斯勒几何进行协同定位,机器人集群由多个排列方式为超齐结构的机器人组成,每个机器人的组成结构包括:视觉采集器、三栖滚动牵引转轮和芬斯勒自动运算模块,其中视觉采集器,用于采集协同定位的视觉定位图像,芬斯勒自动运算模块将采集的视觉定位图像转换成对应的芬斯勒距离,最后三栖滚动牵引转轮根据转换的芬斯勒距离调整机器人在整个机器人集群中的相对位置,实现协同定位,避免因为单一机器人的操作失误导致检测任务失败的结果。本发明能够完成对作业环境数字化和智能化检测,以及对作业人员的实时状态跟踪监测和定位,当发生灾害时,可立即从监控计算机上查询事故现场的灾害位置分布情况、为事故抢险提供科学依据,提供的一种即时、简单、高效的机器人集群协同定位系统可以应用于多种作业场景,提高灾害的管理水平,有效减少事故的发生,促进产业健康发展。
以上各实施例仅用以说明本发明的技术方案,而非对其限制,尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (9)

1.一种机器人集群协同定位系统,其特征在于,所述机器人集群由多个机器人组成,所述机器人的组成结构包括:
视觉采集器,用于采集协同定位的视觉定位图像;
芬斯勒自动运算模块,用于将所述视觉定位图像转换成对应的芬斯勒距离偏差;
三栖滚动牵引转轮,用于根据所述芬斯勒距离偏差调整机器人的相对位置。
2.根据权利要求1所述的一种机器人集群协同定位系统,其特征在于,所述视觉采集器包括以下至少一种波长的摄像机:红外波段摄像机、红光波段摄像机、绿光波段摄像机、蓝光波段摄像机和紫外光波段摄像机。
3.根据权利要求1所述的一种机器人集群协同定位系统,其特征在于,所述三栖滚动牵引转轮包括直流无刷电机组、摆线滚翼桨、护栏地滚轮和调速齿轮箱;
所述直流无刷电机用于分别带动所述摆线滚翼桨、所述护栏地滚轮和所述调速齿轮箱运动,以根据所述芬斯勒距离偏差调整机器人的相对位置,其中,
所述摆线滚翼浆用于当所述机器人处于空中运动状态或水面运动状态时,为机器人提供空气或水面的驱动力;
所述护栏地滚轮用于当所述机器人处于地面运动状态时,提供滚动的摩擦力;
所述调速齿轮箱用于根据所述机器人不同的运动状态,调节所述机器人的运转速度和运动方向。
4.根据权利要求2所述的一种机器人集群协同定位系统,其特征在于,所述芬斯勒自动运算模块包括输入综合器和几何计算器;
所述输入综合器用于根据所述视觉定位图像获取视觉距离;
所述几何计算器用于根据芬斯勒转换方式将所述视觉距离转换为芬斯勒距离。
5.根据权利要求4所述的一种机器人集群协同定位系统,其特征在于,所述输入综合器包括距离采集模块和距离去噪模块,所述距离采集模块用于根据距离获取方法将所述摄像机采集的视觉定位图像转换为粗略视觉距离,所述距离去噪模块对所述视觉距离进行平均加权和滤波,得到精确视觉距离。
6.根据权利要求4所述的一种机器人集群协同定位系统,其特征在于,所述芬斯勒转换方式具体为:
AE=(xy)/2
df=AE-AF+S
其中,x表示当前机器人与相邻机器人在东西方向上的欧几里得距离,称为左右偏距,y表示当前机器人与相邻机器人在南北方向上的欧几里得距离,称为前后偏距,AE表示第一芬斯勒参数,AF表示第二芬斯勒距离参数,df表示芬斯勒距离偏差,S是最小安全距离。
7.根据权利要求6所述的一种机器人集群协同定位系统,其特征在于,所述根据所述芬斯勒距离偏差调整机器人的相对位置具体包括以下调整方式:远离、靠近和保持不变;
当df>S时,机器人靠近与其距离最接近的机器人;
当df<S时,机器人远离与其距离最接近的机器人;
当df=S时,机器人的位置保持不变。
8.一种机器人集群协同定位方法,其特征在于,应用于权利要求1至7任一项所述的一种机器人集群协同定位系统,包括步骤:
判断当前工作状态,机器人根据当前工作状态打开对应波长的视觉采集器,获取用于视觉定位的视觉图像,所述当前工作状态包括:无紧急状况,地面紧急情况、空中紧急情况和水面紧急情况;
所述芬斯勒自动运算模块采用芬斯勒转换方式,将所述视觉采集器获取的所述视觉图像转换成对应的芬斯勒距离;
所述机器人根据所述芬斯勒距离偏差通过所述三栖滚动牵引转轮调整自己与相邻机器人之间的距离。
9.根据权利要求8所述的一种机器人集群协同定位方法,其特征在于,还包括步骤:
利用图像匹配算法匹配目标图像,得出目标类型;
根据所述目标类型采取相应的处理措施。
CN201910185193.5A 2019-03-12 2019-03-12 一种机器人集群协同定位系统和方法 Pending CN110007671A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910185193.5A CN110007671A (zh) 2019-03-12 2019-03-12 一种机器人集群协同定位系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910185193.5A CN110007671A (zh) 2019-03-12 2019-03-12 一种机器人集群协同定位系统和方法

Publications (1)

Publication Number Publication Date
CN110007671A true CN110007671A (zh) 2019-07-12

Family

ID=67166916

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910185193.5A Pending CN110007671A (zh) 2019-03-12 2019-03-12 一种机器人集群协同定位系统和方法

Country Status (1)

Country Link
CN (1) CN110007671A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110844068A (zh) * 2019-10-30 2020-02-28 北京理工大学 一种集群式小体积目标毁伤图像采集系统及其采集方法
CN112581509A (zh) * 2020-12-25 2021-03-30 北京环境特性研究所 一种基于sopc的无人机载地面目标实时跟踪系统及跟踪方法
CN112651933A (zh) * 2020-12-21 2021-04-13 山东省人工智能研究院 基于测地线距离图和程函方程的血管分割方法
CN117690164A (zh) * 2024-01-30 2024-03-12 成都欣纳科技有限公司 基于边缘计算的机场飞鸟识别驱赶方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102637040A (zh) * 2012-04-23 2012-08-15 清华大学 无人机集群可视导航任务协同方法和系统
CN103406905A (zh) * 2013-08-20 2013-11-27 西北工业大学 一种具有视觉伺服及检测功能的机器人系统
CN103926927A (zh) * 2014-05-05 2014-07-16 重庆大学 一种室内移动机器人双目视觉定位与三维建图方法
CN106527239A (zh) * 2016-12-30 2017-03-22 华南智能机器人创新研究院 一种多机器人协同操作模式的方法及系统
CN106965179A (zh) * 2017-04-10 2017-07-21 浙江谱麦科技有限公司 一种工业机器人的视觉定位系统及方法
CN107053184A (zh) * 2017-06-22 2017-08-18 北京信息科技大学 基于私有云的多智能体协作处理系统和方法
CN108196582A (zh) * 2018-02-12 2018-06-22 深圳技术大学(筹) 一种室内视觉导航无人机集群飞行控制系统及方法
CN208013783U (zh) * 2018-04-03 2018-10-26 华南理工大学 基于视觉的移动机器人编队的协同定位系统
CN108803598A (zh) * 2018-05-08 2018-11-13 南方科技大学 一种极地机器人群操作系统及协同方法
CN109062204A (zh) * 2018-07-25 2018-12-21 南京理工大学 一种基于跟随领航者编队的多移动机器人控制系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102637040A (zh) * 2012-04-23 2012-08-15 清华大学 无人机集群可视导航任务协同方法和系统
CN103406905A (zh) * 2013-08-20 2013-11-27 西北工业大学 一种具有视觉伺服及检测功能的机器人系统
CN103926927A (zh) * 2014-05-05 2014-07-16 重庆大学 一种室内移动机器人双目视觉定位与三维建图方法
CN106527239A (zh) * 2016-12-30 2017-03-22 华南智能机器人创新研究院 一种多机器人协同操作模式的方法及系统
CN106965179A (zh) * 2017-04-10 2017-07-21 浙江谱麦科技有限公司 一种工业机器人的视觉定位系统及方法
CN107053184A (zh) * 2017-06-22 2017-08-18 北京信息科技大学 基于私有云的多智能体协作处理系统和方法
CN108196582A (zh) * 2018-02-12 2018-06-22 深圳技术大学(筹) 一种室内视觉导航无人机集群飞行控制系统及方法
CN208013783U (zh) * 2018-04-03 2018-10-26 华南理工大学 基于视觉的移动机器人编队的协同定位系统
CN108803598A (zh) * 2018-05-08 2018-11-13 南方科技大学 一种极地机器人群操作系统及协同方法
CN109062204A (zh) * 2018-07-25 2018-12-21 南京理工大学 一种基于跟随领航者编队的多移动机器人控制系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOHN MELONAKOS等: "Finsler Active Contours", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
沈一兵等: "《现代芬斯勒几何初步》", 31 January 2013 *
程适等: "群体智能优化算法", 《郑州大学学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110844068A (zh) * 2019-10-30 2020-02-28 北京理工大学 一种集群式小体积目标毁伤图像采集系统及其采集方法
CN112651933A (zh) * 2020-12-21 2021-04-13 山东省人工智能研究院 基于测地线距离图和程函方程的血管分割方法
CN112651933B (zh) * 2020-12-21 2022-09-30 山东省人工智能研究院 基于测地线距离图和程函方程的血管分割方法
CN112581509A (zh) * 2020-12-25 2021-03-30 北京环境特性研究所 一种基于sopc的无人机载地面目标实时跟踪系统及跟踪方法
CN112581509B (zh) * 2020-12-25 2023-08-15 北京环境特性研究所 一种基于sopc的无人机载地面目标实时跟踪系统及跟踪方法
CN117690164A (zh) * 2024-01-30 2024-03-12 成都欣纳科技有限公司 基于边缘计算的机场飞鸟识别驱赶方法及系统
CN117690164B (zh) * 2024-01-30 2024-04-30 成都欣纳科技有限公司 基于边缘计算的机场飞鸟识别驱赶方法及系统

Similar Documents

Publication Publication Date Title
CN110007671A (zh) 一种机器人集群协同定位系统和方法
CN106203265B (zh) 一种施工扬尘污染源自动监测及影响范围预测系统及方法
US8922041B1 (en) Tethered vehicle control and tracking system
CN109559310A (zh) 基于显著性检测的输变电巡检图像质量评价方法及系统
Lakhtakia et al. Engineered biomimicry
Zang et al. Investigating small-scale water pollution with UAV remote sensing technology
CN107817820A (zh) 一种基于深度学习的无人机自主飞行控制方法与系统
CN105197252A (zh) 一种小型无人机降落方法及系统
CN110297498A (zh) 一种基于无线充电无人机的轨道巡检方法及系统
CN106210627A (zh) 一种无人机消防调度系统
CN203219298U (zh) 一种适用于山区电网巡检的专用无人直升机系统
De Croon et al. Sky segmentation approach to obstacle avoidance
Lin et al. Practical application of unmanned aerial vehicles for mountain hazards survey
CN106228862A (zh) 一种输电线路无人机巡检仿真培训方法
CN109376676A (zh) 基于无人机平台的公路工程现场施工人员安全预警方法
CN103231794B (zh) 一种多气囊空中作业平台
CN107885229A (zh) 一种可实现电力线自动巡检的无人机及其电力线巡检方法
CN104743084A (zh) 一种水面综合救援系统及其方法
Xu et al. Development of power transmission line detection technology based on unmanned aerial vehicle image vision
CN113867404B (zh) 一种基于无人机的海滩垃圾巡检方法和系统
CN214705387U (zh) 航空器起降标识投影显示系统
Sipes et al. A spatial disorientation survey of experienced instructor pilots
CN107585303A (zh) 无人飞行器紧急降落伞调节装置及自动调节方法
CN104700575A (zh) 一种水域安全救援系统及其方法
Tuğrul Drone Technologies and Applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination