CN106647766A - 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统 - Google Patents

一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统 Download PDF

Info

Publication number
CN106647766A
CN106647766A CN201710026012.5A CN201710026012A CN106647766A CN 106647766 A CN106647766 A CN 106647766A CN 201710026012 A CN201710026012 A CN 201710026012A CN 106647766 A CN106647766 A CN 106647766A
Authority
CN
China
Prior art keywords
robot
central server
cruise
module
uwb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710026012.5A
Other languages
English (en)
Inventor
刘治
刘达才
章云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201710026012.5A priority Critical patent/CN106647766A/zh
Publication of CN106647766A publication Critical patent/CN106647766A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明实施例公开了一种基于复杂环境的UWB‑视觉交互的机器人巡航方法及系统,用于解决目前的应用于机器人上的基于视觉的定位导航需要大量的运算,不能简单快速地进行定位导航,误差比较大的技术问题。本发明实施例方法包括:机器人中央服务器模块设置机器人的ID信息;机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;机器人中央服务器模块根据定位信息和环境信息建立对应的立体环境地图;机器人中央服务器模块根据立体环境地图规划机器人的巡航路径;机器人根据机器人中央服务器模块发送的巡航路径进行巡航。

Description

一种基于复杂环境的UWB-视觉交互的机器人巡航方法及系统
技术领域
本发明涉及机器人领域,尤其涉及一种基于复杂环境的UWB-视觉交互的机器人巡航方法及系统。
背景技术
服务机器人和传统的工业机器人相比,主要突出为以下几点:
环境复杂:服务机器人需要在人类环境中生存和完成任务,而人类环境和工业环境相比最大的特点就是动态、复杂,有随处走动的人类,也可能随时间的变化而发生局部的改变:
需要移动:大部分服务机器人都不像绝大多数的传统工业机器人一样固定在某个位置,而需要在整个环境中移动以完成任务,而且上一点中提到复杂的环境更是加大了移动的难度:
交互频繁:需要和人类近距离、大频率的交互:
任务复杂:任务本身比工业机器人面对的要复杂,加上环境的复杂性和可能需要和人类交互,更是加大了任务的难度。其中,移动是服务机器人大多数任务的基础,而环境的复杂性对移动又是一个巨大的挑战。
在现有的技术中,一般会使用各种传感器(声呐、激光、红外、摄像头等)来感知其周围环境,将感知的结果进行处理之后融合到一个全局的环境表示系统中去,得到对整个环境的认知,从而为后继的移动任务提供决策基础;另一方面,机器人也会使用传感器实时的检测结果来控制每一步的具体运动,从而能够面对动态变换的环境。在机器人领域,一般将第一个过程称为制图,将第二个过程称为导航,其中,制图中涉及到的地图表示对导航起着至关重要的影响。而导航中比较关键的就是定位、路径规划和实时运动控制。至于交互,在未来服务机器人发展中,一个简单便捷而又自然交互界面很有可能是一款服务机器人能否迅速为用户接受,成功打开市场的关键因素。
现在比较流行的同步定位和地图构建技术是SLAM算法,路径规划算法有A*、D*等算法。而单纯定位算法有很多,比如ZigBee定位、WiFi定位、UWB定位等;多机器人控制主要是网络化控制、分布式控制或者是操控系统。
目前,机器人技术在视觉上的应用是识别和定位;在导航上采用的是路径规划算法规划路径;或者是综合视觉定位和导航对机器人进行定位导航。但目前的基于视觉的定位导航需要大量的运算,不能简单快速地进行定位导航,误差比较大,而且在应用于多机器人上有很大的限制。
发明内容
本发明实施例提供了一种基于复杂环境的UWB-视觉交互的机器人巡航方法及系统,解决了目前的应用于机器人上的基于视觉的定位导航需要大量的运算,不能简单快速地进行定位导航,误差比较大,而且在应用于多机器人上有很大的限制的技术问题。
本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法,包括:
机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,机器人UWB定位系统模块、无线通讯模块和深度摄像头模块设置于机器人上;
方法步骤包括:机器人中央服务器模块设置机器人的ID信息;
机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;
机器人中央服务器模块根据定位信息和环境信息建立对应的立体环境地图;
机器人中央服务器模块根据立体环境地图规划机器人的巡航路径;
机器人根据机器人中央服务器模块发送的巡航路径进行巡航。
优选地,机器人中央服务器模块设置机器人的ID信息包括:
机器人中央服务器模块设置机器人的ID、机器人上的机器人UWB定位系统模块的ID标签及机器人行走的优先级。
优选地,定位信息包括空间三维坐标;
环境信息包括环境图像和环境图像深度信息,环境图像深度信息包括环境图像中物体到摄像头的距离。
优选地,机器人中央服务器模块根据定位信息和环境信息建立对应的立体环境地图具体包括:
机器人中央服务器模块根据空间三维坐标、环境图像和环境图像深度信息在三维地图中描绘并建立对应的立体环境地图。
优选地,机器人中央服务器模块根据立体环境地图规划机器人的巡航路径具体包括:
机器人中央服务器模块根据机器人的模型生成模型中心与障碍物间的安全距离圆,并根据安全距离圆的圆心和立体环境地图规划机器人的巡航路径。
优选地,机器人根据机器人中央服务器模块发送的巡航路径进行巡航具体包括:
机器人根据获取到的由机器人中央服务器模块发送的巡航路径指令中的巡航路径进行巡航,并实时返回定位信息至机器人中央服务模块,接受机器人中央服务模块的监控。
优选地,至少两个机器人在巡航路径过程中发生相碰时,按机器人的优先级的高低决定机器人的行走顺序。
本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航系统,包括:
机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,机器人UWB定位系统模块、无线通讯模块和深度摄像头模块设置于机器人上;
机器人中央服务器模块包括:设置单元,用于设置机器人的ID信息;
获取单元,用于控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;
建立单元,用于根据定位信息和环境信息建立对应的立体环境地图;
规划单元,用于根据立体环境地图规划机器人的巡航路径;
发送单元,用于发送巡航路径至机器人。
优选地,规划单元包括:
生成规划子单元,用于根据机器人的模型生成模型中心与障碍物间的安全距离圆,并根据安全距离圆的圆心和立体环境地图规划机器人的巡航路径。
优选地,机器人上安装有避障传感器。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例提供了一种基于复杂环境的UWB-视觉交互的机器人巡航方法及系统,包括:机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,机器人UWB定位系统模块、无线通讯模块和深度摄像头模块设置于机器人上;方法步骤包括:机器人中央服务器模块设置机器人的ID信息;机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;机器人中央服务器模块根据定位信息和环境信息建立对应的立体环境地图;机器人中央服务器模块根据立体环境地图规划机器人的巡航路径;机器人根据机器人中央服务器模块发送的巡航路径进行巡航,本发明实施例中通过UWB定位模块实现对机器人的定位,可实现对多个机器人信息进行快速定位并获得空间三维坐标的定位信息,并通过UWB定位与深度视觉的结合,构建出更为准确的立体环境地图,再通过立体环境地图规划机器人的巡航路径,准确快速的实现机器人的自主巡航,解决了目前的应用于机器人上的基于视觉的定位导航需要大量的运算,不能简单快速地进行定位导航,误差比较大,而且在应用于多机器人上有很大的限制的技术问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的一个实施例的流程示意图;
图2为本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的另一个实施例的流程示意图;
图3为本发明实施例提供的UWB定位模块的工作过程的示意图;
图4为本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航系统的机器人中央服务器模块的结构示意图。
具体实施方式
本发明实施例提供了一种基于复杂环境的UWB-视觉交互的机器人巡航方法及系统,用于解决目前的应用于机器人上的基于视觉的定位导航需要大量的运算,不能简单快速地进行定位导航,误差比较大,而且在应用于多机器人上有很大的限制的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的一个实施例包括:
机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,机器人UWB定位系统模块、无线通讯模块和深度摄像头模块设置于机器人上;
方法步骤包括:101、机器人中央服务器模块设置机器人的ID信息;
首先,为方便管理,由机器人中央服务器模块设置用于巡航的机器人的ID信息,并事先对机器人的状态进行检查,确保每个用于巡航的机器人均可正常与机器人中央服务器模块进行通讯并进行巡航。
102、机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;
在设置完毕机器人的ID信息并检查机器人的状态无误后,机器人中央服务器模块控制机器人进行在实体环境中的首次巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息。在机器人的首次巡航过程中,机器人需要通过UWB定位系统模块实时获取到定位信息及通过深度摄像头模块实时获取到环境信息并发送给机器人中央服务器模块,机器人中央服务器模块通过机器人身上的无线通讯模块获取到定位信息和环境信息,并将定位信息和环境信息实时记录结合起来。
103、机器人中央服务器模块根据定位信息和环境信息建立对应的立体环境地图;
在机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息之后,机器人中央服务器模块根据实时记录结合起来的定位信息和环境信息建立对应的立体环境地图。
104、机器人中央服务器模块根据立体环境地图规划机器人的巡航路径;
机器人中央服务器模块根据定位信息和环境信息建立对应的立体环境地图之后,机器人中央服务器模块根据立体环境地图规划机器人的巡航路径,可根据预先设定的规划参数规划出一条道路畅通、视野宽广的最适合机器人巡航的路径。
此外,还可以根据实际需要由人为进行对机器人巡航路径的规划,使得巡航路径更为人性化、更便捷。
105、机器人根据机器人中央服务器模块发送的巡航路径进行巡航。
机器人中央服务器模块根据立体环境地图规划好机器人的巡航路径后,机器人根据机器人中央服务器模块发送的巡航路径进行巡航,并实时监控巡航路径上的环境传输至机器人中央服务器模块进行监控及记录。
以上为对本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的一个实施例的详细描述,以下将对本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的另一个实施例进行详细的描述。
请参阅图2,本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的另一个实施例包括:
201、机器人中央服务器模块设置机器人的ID、机器人上的机器人UWB定位系统模块的ID标签及机器人行走的优先级;
首先,为方便管理,由机器人中央服务器模块设置用于巡航的机器人的ID、机器人上的机器人UWB定位系统模块的ID标签及机器人行走的优先级,并事先对机器人的状态进行检查,确保每个用于巡航的机器人均可正常与机器人中央服务器模块进行通讯并进行巡航。其中,机器人行走的优先级为当多个机器人工作巡航过程中发生碰头时,为防止争抢路径而设置优先级使得优先级高的机器人先行走,优先级低的机器人进行等待避让。
202、机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;
在设置完毕机器人的ID等信息并检查机器人的状态无误后,机器人中央服务器模块控制机器人进行在实体环境中的首次巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息。在机器人的首次巡航过程中,机器人需要通过UWB定位系统模块实时获取到定位信息及通过深度摄像头模块实时获取到环境信息并发送给机器人中央服务器模块,机器人中央服务器模块通过机器人身上的无线通讯模块获取到定位信息和环境信息,并将定位信息和环境信息实时记录结合起来。其中,环境信息包括环境图像和环境图像深度信息,环境图像深度信息包括环境图像中物体到摄像头的距离。
请参阅图3,为UWB定位模块的工作过程。其中,A0、A1、A2和A3为4个基站,B为标签,坐标分别为A0(X0,Y0,Z0)、A1(X1,Y1,Z1)、A2(X2,Y2,Z2)、A3(X3,Y3,Z3)、B(X,Y,Z),已知基站A0、A1、A2、A3的坐标和标签B到各基站的距离L0、L1、L2、L3,那就可以列出标签B到各个基站的球方程,联合方程后使用最大似然估计法和最小二乘法计算出标签B的X、Y、Z准确位置。
理论上,UWB定位模块可以放无穷多个基站和标签,也可以分层。建立空间坐标系,根据各个基站的坐标,可以将各个基站完整地显示在同一个空间坐标系,每个标签可以选择与自身距离最近的四个基站作为参考坐标计算所处的空间坐标值。
203、机器人中央服务器模块根据空间三维坐标、环境图像和环境图像深度信息在三维地图中描绘并建立对应的立体环境地图;
在机器人中央服务器模块控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息之后,机器人中央服务器模块根据实时记录结合起来的空间三维坐标、环境图像和环境图像深度信息在三维地图中描绘并建立对应的立体环境地图。
204、机器人中央服务器模块根据机器人的模型生成模型中心与障碍物间的安全距离圆,并根据安全距离圆的圆心和立体环境地图规划机器人的巡航路径;
机器人中央服务器模块根据空间三维坐标、环境图像和环境图像深度信息在三维地图中描绘并建立对应的立体环境地图之后,机器人中央服务器模块根据机器人的模型生成模型中心与障碍物间的安全距离圆,并根据安全距离圆的圆心和立体环境地图规划机器人的巡航路径,可根据预先设定的规划参数规划出一条道路畅通、视野宽广的最适合机器人巡航的路径。
此外,还可以根据实际需要由人为进行对机器人巡航路径的规划,使得巡航路径更为人性化、更便捷,即由监控人员通过机器人中央服务器模块在立体环境地图上用安全距离圆的圆心规划巡航路径。
205、机器人根据获取到的由机器人中央服务器模块发送的巡航路径指令中的巡航路径进行巡航,并实时返回定位信息至机器人中央服务模块,接受机器人中央服务模块的监控。
在巡航路径规划完毕后,机器人根据获取到的由机器人中央服务器模块发送的巡航路径指令中的巡航路径进行巡航,并实时返回定位信息至机器人中央服务模块,接受机器人中央服务模块的监控。同时,在机器人中央服务器模块可以实时获取到机器人巡航时所拍摄并返回的周围的环境图像,实现实时监控。
需要说明的是,当多个机器人同时工作时并且有至少两个机器人在巡航路径过程中发生相碰时,按机器人的优先级的高低决定机器人的行走顺序。由于机器人安装有避障传感器,会检测机器人周围可能突然出现的障外物,及时避让。多个机器人同时运行时,为了避免发生争抢路径导致同时避让,设置机器人的优先级,使得机器人碰头时,优先级高的机器人先行,优先级低的停止或后退避让,即多个机器人相遇时按优先级避让,自动识别行人并避让。
以上为对本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航方法的另一个实施例进行的详细描述,以下将对本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航系统进行详细的描述。
请参阅图4,本发明实施例提供的一种基于复杂环境的UWB-视觉交互的机器人巡航系统包括:
机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,机器人UWB定位系统模块、无线通讯模块和深度摄像头模块设置于机器人上;
机器人中央服务器模块包括:设置单元301,用于设置机器人的ID信息;
获取单元302,用于控制机器人进行巡航,并实时获取由机器人通过无线通讯模块返回的机器人UWB定位系统模块获取的定位信息和深度摄像头模块获取的环境信息;
建立单元303,用于根据定位信息和环境信息建立对应的立体环境地图;
规划单元304,用于根据立体环境地图规划机器人的巡航路径;规划单元包括:
生成规划子单元3041,用于根据机器人的模型生成模型中心与障碍物间的安全距离圆,并根据安全距离圆的圆心和立体环境地图规划机器人的巡航路径。
发送单元305,用于发送巡航路径至机器人。
机器人上安装有避障传感器。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,包括:
机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,所述机器人UWB定位系统模块、所述无线通讯模块和所述深度摄像头模块设置于所述机器人上;
方法步骤包括:所述机器人中央服务器模块设置所述机器人的ID信息;
所述机器人中央服务器模块控制所述机器人进行巡航,并实时获取由所述机器人通过所述无线通讯模块返回的所述机器人UWB定位系统模块获取的定位信息和所述深度摄像头模块获取的环境信息;
所述机器人中央服务器模块根据所述定位信息和所述环境信息建立对应的立体环境地图;
所述机器人中央服务器模块根据所述立体环境地图规划所述机器人的巡航路径;
所述机器人根据所述机器人中央服务器模块发送的巡航路径进行巡航。
2.根据权利要求1所述的基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,所述机器人中央服务器模块设置所述机器人的ID信息包括:
所述机器人中央服务器模块设置所述机器人的ID、所述机器人上的机器人UWB定位系统模块的ID标签及所述机器人行走的优先级。
3.根据权利要求2所述的基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,所述定位信息包括空间三维坐标;
所述环境信息包括环境图像和环境图像深度信息,所述环境图像深度信息包括环境图像中物体到摄像头的距离。
4.根据权利要求3所述的基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,所述机器人中央服务器模块根据所述定位信息和所述环境信息建立对应的立体环境地图具体包括:
所述机器人中央服务器模块根据所述空间三维坐标、所述环境图像和所述环境图像深度信息在三维地图中描绘并建立对应的立体环境地图。
5.根据权利要求4所述的基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,所述机器人中央服务器模块根据所述立体环境地图规划所述机器人的巡航路径具体包括:
所述机器人中央服务器模块根据所述机器人的模型生成模型中心与障碍物间的安全距离圆,并根据所述安全距离圆的圆心和所述立体环境地图规划所述机器人的巡航路径。
6.根据权利要求5所述的基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,所述机器人根据所述机器人中央服务器模块发送的巡航路径进行巡航具体包括:
所述机器人根据获取到的由所述机器人中央服务器模块发送的巡航路径指令中的巡航路径进行巡航,并实时返回定位信息至所述机器人中央服务模块,接受所述机器人中央服务模块的监控。
7.根据权利要求2所述的基于复杂环境的UWB-视觉交互的机器人巡航方法,其特征在于,至少两个所述机器人在巡航路径过程中发生相碰时,按所述机器人的优先级的高低决定所述机器人的行走顺序。
8.一种基于复杂环境的UWB-视觉交互的机器人巡航系统,其特征在于,包括:
机器人中央服务器模块、机器人、机器人UWB定位系统模块、无线通讯模块和深度摄像头模块,所述机器人UWB定位系统模块、所述无线通讯模块和所述深度摄像头模块设置于所述机器人上;
所述机器人中央服务器模块包括:设置单元,用于设置所述机器人的ID信息;
获取单元,用于控制所述机器人进行巡航,并实时获取由所述机器人通过所述无线通讯模块返回的所述机器人UWB定位系统模块获取的定位信息和所述深度摄像头模块获取的环境信息;
建立单元,用于根据所述定位信息和所述环境信息建立对应的立体环境地图;
规划单元,用于根据所述立体环境地图规划所述机器人的巡航路径;
发送单元,用于发送巡航路径至所述机器人。
9.根据权利要求8所述的基于复杂环境的UWB-视觉交互的机器人巡航系统,其特征在于,所述规划单元包括:
生成规划子单元,用于根据所述机器人的模型生成模型中心与障碍物间的安全距离圆,并根据所述安全距离圆的圆心和所述立体环境地图规划所述机器人的巡航路径。
10.根据权利要求8所述的基于复杂环境的UWB-视觉交互的机器人巡航系统,其特征在于,所述机器人上安装有避障传感器。
CN201710026012.5A 2017-01-13 2017-01-13 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统 Pending CN106647766A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710026012.5A CN106647766A (zh) 2017-01-13 2017-01-13 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710026012.5A CN106647766A (zh) 2017-01-13 2017-01-13 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统

Publications (1)

Publication Number Publication Date
CN106647766A true CN106647766A (zh) 2017-05-10

Family

ID=58843308

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710026012.5A Pending CN106647766A (zh) 2017-01-13 2017-01-13 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统

Country Status (1)

Country Link
CN (1) CN106647766A (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108459594A (zh) * 2017-06-12 2018-08-28 炬大科技有限公司 一种移动电子设备以及该移动电子设备中的方法
CN108459597A (zh) * 2017-07-26 2018-08-28 炬大科技有限公司 一种用于处理任务区域的任务的移动电子设备以及方法
CN108496134A (zh) * 2017-05-31 2018-09-04 深圳市大疆创新科技有限公司 无人机返航路径规划方法及装置
CN108733060A (zh) * 2018-06-05 2018-11-02 北京智行者科技有限公司 一种作业地图信息的处理方法
CN108803620A (zh) * 2018-07-25 2018-11-13 梁步阁 一种用于机器人的uwb定位系统
WO2019001237A1 (zh) * 2017-06-30 2019-01-03 炬大科技有限公司 一种移动电子设备以及该移动电子设备中的方法
WO2019037517A1 (zh) * 2017-08-24 2019-02-28 炬大科技有限公司 一种用于处理任务区域的任务的移动电子设备以及方法
CN110244715A (zh) * 2019-05-23 2019-09-17 西安理工大学 一种基于超宽带技术的多移动机器人高精度协同跟踪方法
CN110262544A (zh) * 2019-05-30 2019-09-20 上海建沪鸿达科技有限公司 一种用于纳米纤维生产的监察机器人
CN110315540A (zh) * 2019-07-15 2019-10-11 南京航空航天大学 一种基于uwb和双目vo紧耦合的机器人定位方法及系统
CN110650427A (zh) * 2019-04-29 2020-01-03 国网浙江省电力有限公司物资分公司 一种基于摄像机图像与uwb融合的室内定位方法和系统
CN111610791A (zh) * 2020-07-08 2020-09-01 北京京东乾石科技有限公司 垃圾收集方法、装置、系统、介质及电子设备
CN111947659A (zh) * 2020-07-07 2020-11-17 华南理工大学 面向移动机器人的声光电多模分布协作式定位与导航系统
CN112256038A (zh) * 2020-11-03 2021-01-22 盈合(深圳)机器人与自动化科技有限公司 智能空间服务方法及系统
CN112256032A (zh) * 2020-11-02 2021-01-22 中国计量大学 Agv定位系统、控制方法、设备及存储介质
CN113400279A (zh) * 2021-06-03 2021-09-17 南京机器人研究院有限公司 一种工业机器人视觉检测及避障系统
CN114217618A (zh) * 2021-12-14 2022-03-22 重庆富沛和科技有限公司 一种三维地图中选定范围进行自动巡航的方法
CN114355903A (zh) * 2021-12-18 2022-04-15 苏州光格科技股份有限公司 机器人自动充电方法、装置、计算机设备和存储介质
CN116661459A (zh) * 2023-06-26 2023-08-29 中煤科工机器人科技有限公司 一种煤矿巡检机器人巡检和避障方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101893894A (zh) * 2010-06-30 2010-11-24 上海交通大学 可重构微型移动机器人集群定位跟踪系统
CN102231233A (zh) * 2011-06-29 2011-11-02 南京航空航天大学 自动引导车分布式自主协同控制系统及控制方法
CN102541057A (zh) * 2010-12-29 2012-07-04 沈阳新松机器人自动化股份有限公司 一种基于激光测距仪的移动机器人避障方法
CN102736627A (zh) * 2012-06-05 2012-10-17 燕山大学 多智能体目标搜捕自主决策协调控制装置及方法
CN102749918A (zh) * 2012-04-23 2012-10-24 山东大陆科技有限公司 一种全区智能全自动服务系统
US20130024025A1 (en) * 2011-07-21 2013-01-24 Harry Chia-Hung Hsu Autonomous Robot and A Positioning Method Thereof
CN102915465A (zh) * 2012-10-24 2013-02-06 河海大学常州校区 一种基于移动生物刺激神经网络的多机器人联合编队方法
CN103901892A (zh) * 2014-03-04 2014-07-02 清华大学 无人机的控制方法及系统
CN105072381A (zh) * 2015-07-17 2015-11-18 上海真灼电子技术有限公司 一种融合视频识别与uwb定位技术的人员识别方法与系统
CN105182981A (zh) * 2015-10-14 2015-12-23 珠海格力电器股份有限公司 机器人的行进方法、控制方法、控制系统和服务器

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101893894A (zh) * 2010-06-30 2010-11-24 上海交通大学 可重构微型移动机器人集群定位跟踪系统
CN102541057A (zh) * 2010-12-29 2012-07-04 沈阳新松机器人自动化股份有限公司 一种基于激光测距仪的移动机器人避障方法
CN102231233A (zh) * 2011-06-29 2011-11-02 南京航空航天大学 自动引导车分布式自主协同控制系统及控制方法
US20130024025A1 (en) * 2011-07-21 2013-01-24 Harry Chia-Hung Hsu Autonomous Robot and A Positioning Method Thereof
CN102749918A (zh) * 2012-04-23 2012-10-24 山东大陆科技有限公司 一种全区智能全自动服务系统
CN102736627A (zh) * 2012-06-05 2012-10-17 燕山大学 多智能体目标搜捕自主决策协调控制装置及方法
CN102915465A (zh) * 2012-10-24 2013-02-06 河海大学常州校区 一种基于移动生物刺激神经网络的多机器人联合编队方法
CN103901892A (zh) * 2014-03-04 2014-07-02 清华大学 无人机的控制方法及系统
CN105072381A (zh) * 2015-07-17 2015-11-18 上海真灼电子技术有限公司 一种融合视频识别与uwb定位技术的人员识别方法与系统
CN105182981A (zh) * 2015-10-14 2015-12-23 珠海格力电器股份有限公司 机器人的行进方法、控制方法、控制系统和服务器

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108496134A (zh) * 2017-05-31 2018-09-04 深圳市大疆创新科技有限公司 无人机返航路径规划方法及装置
CN108459594A (zh) * 2017-06-12 2018-08-28 炬大科技有限公司 一种移动电子设备以及该移动电子设备中的方法
WO2018228254A1 (zh) * 2017-06-12 2018-12-20 炬大科技有限公司 一种移动电子设备以及该移动电子设备中的方法
WO2019001237A1 (zh) * 2017-06-30 2019-01-03 炬大科技有限公司 一种移动电子设备以及该移动电子设备中的方法
CN108459597A (zh) * 2017-07-26 2018-08-28 炬大科技有限公司 一种用于处理任务区域的任务的移动电子设备以及方法
CN108459597B (zh) * 2017-07-26 2024-02-23 炬大科技有限公司 一种用于处理任务区域的任务的移动电子设备以及方法
WO2019037517A1 (zh) * 2017-08-24 2019-02-28 炬大科技有限公司 一种用于处理任务区域的任务的移动电子设备以及方法
CN108733060A (zh) * 2018-06-05 2018-11-02 北京智行者科技有限公司 一种作业地图信息的处理方法
CN108803620A (zh) * 2018-07-25 2018-11-13 梁步阁 一种用于机器人的uwb定位系统
CN110650427A (zh) * 2019-04-29 2020-01-03 国网浙江省电力有限公司物资分公司 一种基于摄像机图像与uwb融合的室内定位方法和系统
CN110244715A (zh) * 2019-05-23 2019-09-17 西安理工大学 一种基于超宽带技术的多移动机器人高精度协同跟踪方法
CN110244715B (zh) * 2019-05-23 2022-09-30 西安理工大学 一种基于超宽带技术的多移动机器人高精度协同跟踪方法
CN110262544A (zh) * 2019-05-30 2019-09-20 上海建沪鸿达科技有限公司 一种用于纳米纤维生产的监察机器人
CN110262544B (zh) * 2019-05-30 2022-05-03 北京百年初心科技有限公司 一种用于纳米纤维生产的监察机器人
CN110315540A (zh) * 2019-07-15 2019-10-11 南京航空航天大学 一种基于uwb和双目vo紧耦合的机器人定位方法及系统
CN111947659A (zh) * 2020-07-07 2020-11-17 华南理工大学 面向移动机器人的声光电多模分布协作式定位与导航系统
CN111947659B (zh) * 2020-07-07 2022-05-24 华南理工大学 面向移动机器人的声光电多模分布协作式定位与导航系统
CN111610791A (zh) * 2020-07-08 2020-09-01 北京京东乾石科技有限公司 垃圾收集方法、装置、系统、介质及电子设备
CN111610791B (zh) * 2020-07-08 2022-01-07 北京京东乾石科技有限公司 垃圾收集方法、装置、系统、介质及电子设备
CN112256032A (zh) * 2020-11-02 2021-01-22 中国计量大学 Agv定位系统、控制方法、设备及存储介质
CN112256038A (zh) * 2020-11-03 2021-01-22 盈合(深圳)机器人与自动化科技有限公司 智能空间服务方法及系统
CN113400279B (zh) * 2021-06-03 2022-05-10 南京机器人研究院有限公司 一种工业机器人视觉检测及避障系统
CN113400279A (zh) * 2021-06-03 2021-09-17 南京机器人研究院有限公司 一种工业机器人视觉检测及避障系统
CN114217618A (zh) * 2021-12-14 2022-03-22 重庆富沛和科技有限公司 一种三维地图中选定范围进行自动巡航的方法
CN114217618B (zh) * 2021-12-14 2024-04-16 重庆富沛和科技有限公司 一种三维地图中选定范围进行自动巡航的方法
CN114355903A (zh) * 2021-12-18 2022-04-15 苏州光格科技股份有限公司 机器人自动充电方法、装置、计算机设备和存储介质
CN116661459A (zh) * 2023-06-26 2023-08-29 中煤科工机器人科技有限公司 一种煤矿巡检机器人巡检和避障方法

Similar Documents

Publication Publication Date Title
CN106647766A (zh) 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统
Schwesinger et al. Automated valet parking and charging for e-mobility
CN106949893B (zh) 一种三维避障的室内机器人导航方法和系统
US20200158869A1 (en) System, device and method of generating a high resolution and high accuracy point cloud
CN114474061B (zh) 基于云服务的机器人多传感器融合定位导航系统及方法
KR20210015211A (ko) 실시간으로 클라우드 슬램을 수행하는 방법 및 이를 구현하는 로봇과 클라우드 서버
TW201728876A (zh) 自主視覺導航
CN107301377B (zh) 一种基于深度相机的人脸与行人感知系统
Zhao et al. A path planning method based on multi-objective cauchy mutation cat swarm optimization algorithm for navigation system of intelligent patrol car
CN107223261A (zh) 人机混合决策方法和装置
CA3126250A1 (en) Recovering and simulating pedestrians in the wild
CN108088445A (zh) 基于八叉树表示的三维栅格地图路径规划系统及方法
CN112506222A (zh) 一种无人机智能化避障方法及装置
CN106162144A (zh) 一种用于夜视环境的视觉图像处理设备、系统和智能机器
Li et al. A framework and method for human-robot cooperative safe control based on digital twin
CN106527438A (zh) 机器人导航控制方法和装置
Chen et al. Robot navigation with map-based deep reinforcement learning
JP2024500672A (ja) 自律エージェントの環境表現を動的に更新するための方法およびシステム
CN107972027A (zh) 机器人的定位方法和装置、机器人
CN106647738A (zh) 一种无人搬运车的对接路径确定方法及系统及无人搬运车
CA3136909A1 (en) SYSTEMS AND METHODS FOR SIMULTANEOUS LOCATION AND MAPPING USING ASYNCHRONOUS MULTI-ANGLE CAMERAS
CN106774303B (zh) 一种追踪方法及追踪设备
CN113566825A (zh) 基于视觉的无人机导航方法、系统及存储介质
Xin et al. Coordinated motion planning of multiple robots in multi-point dynamic aggregation task
CN114299039B (zh) 一种机器人及其碰撞检测装置和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170510