CN113485340A - 群体机器人分布式围捕控制方法及系统 - Google Patents
群体机器人分布式围捕控制方法及系统 Download PDFInfo
- Publication number
- CN113485340A CN113485340A CN202110785777.3A CN202110785777A CN113485340A CN 113485340 A CN113485340 A CN 113485340A CN 202110785777 A CN202110785777 A CN 202110785777A CN 113485340 A CN113485340 A CN 113485340A
- Authority
- CN
- China
- Prior art keywords
- robot
- position information
- target
- robots
- control method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000011897 real-time detection Methods 0.000 claims abstract description 8
- 238000005295 random walk Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 108090000623 proteins and genes Proteins 0.000 claims description 5
- 238000004891 communication Methods 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000001926 trapping method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
Abstract
本发明涉及机器人技术领域,具体涉及一种群体机器人分布式围捕控制方法及系统,所述方法包括:群体中的机器人利用自身携带的视觉传感器进行目标检测;若群体中的机器人检测到目标,则该机器人利用自身携带的视觉传感器和距离传感器探测得到该机器人当前的第一位置信息和第二位置信息;根据第一位置信息和第二位置信息确定所述机器人对目标进行围捕的围捕形态,并根据所述围捕形态向目标移动;在机器人向目标移动过程中,利用自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障;本发明能够在无通信的环境下实现对目标的分布式围捕。
Description
技术领域
本发明涉及机器人技术领域,具体涉及一种群体机器人分布式围捕控制方法及系统。
背景技术
目标围捕是群体机器人系统中一个典型的具有挑战性的研究领域,它利用大量简单机器人的协作来实现对目标的围捕。群体目标围捕的方法已经广泛应用于搜索与营救、护送任务和区域覆盖等领域。现有的目标围捕方法主要分为:领导---跟随控制模型、虚拟结构模型、基于行为的控制模型和基于生物启发的方法。基于生物启发的目标围捕方法可以更灵活地生成适应性更好的围捕形态,可有效应对未知的环境变化和干扰。在基于生物启发的目标围捕方法中,常用的一类方法是基因调控网络模型(Gene Regularity Model,简称GRN)。在GRN模型中,群体机器人通过GRN的上层接收环境中目标的位置和障碍物的信息,在目标周围生成一个目标围捕形态。在GRN的下层,群体机器人通过自组织的方式运动到所生成的目标围捕形态上。
在传统的基于GRN模型的机器人围捕控制方法中,面临以下问题:
1.传统的基于GRN模型的控制方法需要输入全局信息才能在进行目标周围时生成一个关于目标的围捕形态,这就需要知道每个机器人的位置和目标的位置,尤其是目标周围障碍物的位置,输入条件要求苛刻,然而,在大多数实际环境中无法事先知道每个机器人和目标的具体位置,尤其是目标周围障碍物分布无法准确地获得。
2.在传统的基于GRN模型的控制方法中,群体机器人需要高度依赖GPS或者超宽带(UWB)等用以获得全局信息的传感器,而在实际环境中,尤其是在全局信息受阻的环境中(如灾害后的环境),无法通过GPS或者UWB进行通信,传统方法只能适用于通信条件良好且获得全局信息的场景。
3.在通信拒止、无通信或全局信息受阻的环境下,传统的基于GRN模型的控制方法导致个体和个体之间无法进行的通信,甚至个体无法与后方指挥者通信,导致群体机器人无法准确获得目标所在区域的全局信息,从而群体机器人无法完成目标围捕任务。
因此,亟待解决通信完全拒止和未知环境下的群体机器人围捕问题。
发明内容
本发明目的在于提供一种群体机器人分布式围捕控制方法及系统,以解决现有技术中所存在的一个或多个技术问题,至少提供一种有益的选择或创造条件。
为了实现上述目的,本发明提供以下技术方案:
一种群体机器人分布式围捕控制方法,所述方法包括以下步骤:
步骤S100、群体中的机器人利用自身携带的视觉传感器进行目标检测;
步骤S200、若群体中的机器人检测到目标,则该机器人利用自身携带的视觉传感器和距离传感器探测得到该机器人当前的第一位置信息和第二位置信息;
其中,所述第一位置信息为机器人与目标的相对位置,所述第二位置信息为机器人与障碍物的相对位置;
步骤S300、根据该机器人当前的第一位置信息和第二位置信息确定所述机器人对目标进行围捕的围捕形态,所述机器人根据所述围捕形态向目标移动;
步骤S400、在所述机器人向目标移动过程中,利用所述机器人自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障;其中,所述第三位置信息为机器人与邻居机器人的相对位置;
步骤S500、重复执行步骤S100至步骤S400,直至所述机器人移动到所述围捕形态。
进一步,所述方法还包括:
若群体中的机器人没有检测到目标,则该机器人进行随机游走;
当确定该机器人的游走距离超过距离阈值时,执行步骤S100。
进一步,所述方法还包括:
在该机器人进行随机游走过程中,利用所述机器人自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障。
进一步,所述步骤S300包括:
将第一位置信息和第二位置信息输入基因调控网络模型,确定所述机器人对目标进行围捕的围捕形态;
每个机器人根据各自的围捕形态分别向目标移动。
一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的群体机器人分布式围捕控制方法的步骤。
一种群体机器人分布式围捕控制系统,所述系统包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述任一项所述的群体机器人分布式围捕控制方法。
本发明的有益效果是:本发明公开一种群体机器人分布式围捕控制方法及系统,群体机器人中的每个机器人充分利用自身携带的视觉传感器和激光测距传感器获取的信息作为环境感知输入,群体机器人之间不直接进行通信。群体机器人的适应性更强,能够在无通信的环境下实现对目标的分布式围捕。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中群体机器人分布式围捕控制方法的流程示意图。
具体实施方式
以下将结合实施例和附图对本申请的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本申请的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
参考图1,如图1所示为本申请实施例提供的一种群体机器人分布式围捕控制方法,所述方法包括以下步骤:
步骤S100、群体中的机器人利用自身携带的视觉传感器进行目标检测;
步骤S200、若群体中的机器人检测到目标,则该机器人利用自身携带的视觉传感器和距离传感器探测得到该机器人当前的第一位置信息和第二位置信息;
其中,所述第一位置信息为机器人与目标的相对位置,所述第二位置信息为机器人与障碍物的相对位置;
步骤S300、根据该机器人当前的第一位置信息和第二位置信息确定所述机器人对目标进行围捕的围捕形态,所述机器人根据所述围捕形态向目标移动;
步骤S400、在所述机器人向目标移动过程中,利用所述机器人自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障;其中,所述第三位置信息为机器人与邻居机器人的相对位置;
步骤S500、重复执行步骤S100至步骤S400,直至所述机器人移动到所述围捕形态。
在一些实施例中,所述距离传感器采用激光传感器,由于每个机器人可根据自身携带的视觉传感器和距离传感器来感知目标、障碍物和邻居机器人的相对位置,基于这些相对位置信息,分别建立各自的围捕形态,群体机器人之间不直接进行通信,且无需知道全局的信息,即可根据所述围捕形态向目标移动,以对目标进行围捕;在围捕过程中,每个机器人能根据自身探测到的目标和障碍物信息自动地调整各自的围捕形态,在考虑避障的情况下向各自的围捕形态移动,涌现出围捕行为,完成对目标的围捕。本发明提供的实施例中,群体机器人对无通信和未知环境下的目标围捕任务具有较好的适应性和鲁棒性。克服了传统基于全局信息的GRN网络模型的控制方法需要全局信息和良好通信条件的局限,可实现无通信和未知环境下的群体机器人分布式围捕。
作为上述实施例的进一步改进,所述方法还包括:
步骤S201、若群体中的机器人没有检测到目标,则该机器人进行随机游走;
步骤S202、确定该机器人的游走距离是否超过距离阈值,若是,则执行步骤S100;若否,则该机器人继续进行随机游走。
也就是说,若群体中的机器人没有检测到目标,则该机器人进行随机游走;当确定该机器人的游走距离超过距离阈值时,执行步骤S100;即,利用自身携带的视觉传感器进行目标检测;本实施例中,以游走距离作为程序跳转的依据,在机器人游走一定的距离时,再进行一次目标检测,避免实时检测所导致的计算资源浪费;可以理解,为保证计算资源的合理利用以及避免对目标的漏检,所述距离阈值根据实际情况设定,不能过大或过小,应在避免漏检的情况下,尽量增加距离阈值的大小。
作为上述实施例的进一步改进,所述方法还包括:
在该机器人进行随机游走过程中,利用所述机器人自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障。
作为上述实施例的进一步改进,所述步骤S300包括:
将第一位置信息和第二位置信息输入基因调控网络模型(Gene RegulatoryNetwork,GRN),确定所述机器人对目标进行围捕的围捕形态;
每个机器人根据各自的围捕形态分别向目标移动。
与图1的方法相对应,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有群体机器人分布式围捕控制程序,所述群体机器人分布式围捕控制程序被处理器执行时实现如上述任一实施例所述的群体机器人分布式围捕控制方法的步骤。
与图1的方法相对应,本发明实施例还提供一种群体机器人分布式围捕控制系统,所述系统包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述任一实施例所述的群体机器人分布式围捕控制方法。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
所述处理器可以是中央处理单元(Central-Processing-Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital-Signal-Processor,DSP)、专用集成电路(Application-Specific-Integrated-Circuit,ASIC)、现场可编程门阵列(Field-Programmable-Gate-Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述群体机器人分布式围捕控制系统的控制中心,利用各种接口和线路连接整个群体机器人分布式围捕控制系统可运行装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述群体机器人分布式围捕控制系统的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart-Media-Card,SMC),安全数字(Secure-Digital,SD)卡,闪存卡(Flash-Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
尽管本申请的描述已经相当详尽且特别对几个所述实施例进行了描述,但其并非旨在局限于任何这些细节或实施例或任何特殊实施例,而是应当将其视作是通过参考所附权利要求,考虑到现有技术为这些权利要求提供广义的可能性解释,从而有效地涵盖本申请的预定范围。此外,上文以发明人可预见的实施例对本申请进行描述,其目的是为了提供有用的描述,而那些目前尚未预见的对本申请的非实质性改动仍可代表本申请的等效改动。
Claims (6)
1.一种群体机器人分布式围捕控制方法,其特征在于,所述方法包括以下步骤:
步骤S100、群体中的机器人利用自身携带的视觉传感器进行目标检测;
步骤S200、若群体中的机器人检测到目标,则该机器人利用自身携带的视觉传感器和距离传感器探测得到该机器人当前的第一位置信息和第二位置信息;
其中,所述第一位置信息为机器人与目标的相对位置,所述第二位置信息为机器人与障碍物的相对位置;
步骤S300、根据该机器人当前的第一位置信息和第二位置信息确定所述机器人对目标进行围捕的围捕形态,所述机器人根据所述围捕形态向目标移动;
步骤S400、在所述机器人向目标移动过程中,利用所述机器人自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障;其中,所述第三位置信息为机器人与邻居机器人的相对位置;
步骤S500、重复执行步骤S100至步骤S400,直至所述机器人移动到所述围捕形态。
2.根据权利要求1所述的一种群体机器人分布式围捕控制方法,其特征在于,所述方法还包括:
若群体中的机器人没有检测到目标,则该机器人进行随机游走;
当确定该机器人的游走距离超过距离阈值时,执行步骤S100。
3.根据权利要求2所述的一种群体机器人分布式围捕控制方法,其特征在于,所述方法还包括:
在该机器人进行随机游走过程中,利用所述机器人自身携带的视觉传感器和距离传感器实时探测得到该机器人的第二位置信息和第三位置信息,根据实时探测得到的第二位置信息和第三位置信息控制所述机器人进行避障。
4.根据权利要求1所述的一种群体机器人分布式围捕控制方法,其特征在于,所述步骤S300包括:
将第一位置信息和第二位置信息输入基因调控网络模型,确定所述机器人对目标进行围捕的围捕形态;
每个机器人根据各自的围捕形态分别向目标移动。
5.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的群体机器人分布式围捕控制方法的步骤。
6.一种电子设备,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1至4任一项所述的群体机器人分布式围捕控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110785777.3A CN113485340A (zh) | 2021-07-12 | 2021-07-12 | 群体机器人分布式围捕控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110785777.3A CN113485340A (zh) | 2021-07-12 | 2021-07-12 | 群体机器人分布式围捕控制方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113485340A true CN113485340A (zh) | 2021-10-08 |
Family
ID=77938831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110785777.3A Pending CN113485340A (zh) | 2021-07-12 | 2021-07-12 | 群体机器人分布式围捕控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113485340A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114326747A (zh) * | 2022-01-06 | 2022-04-12 | 中国人民解放军国防科技大学 | 群体机器人多目标围捕控制方法、装置和计算机设备 |
CN115145289A (zh) * | 2022-09-02 | 2022-10-04 | 汕头大学 | 多智能体协同围捕方法、系统、设备及存储介质 |
CN116339351A (zh) * | 2023-05-29 | 2023-06-27 | 汕头大学 | 一种基于基因调控网络的智能体集群区域覆盖方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10228315A (ja) * | 1997-02-13 | 1998-08-25 | Honda Motor Co Ltd | ハンチング防止装置付自律走行ロボット |
CN104942807A (zh) * | 2015-04-16 | 2015-09-30 | 上海大学 | 基于扩展式合作博弈的多机器人围捕目标方法 |
CN109079792A (zh) * | 2018-09-05 | 2018-12-25 | 顺德职业技术学院 | 一种基于多机器人的目标围捕方法及系统 |
CN110262523A (zh) * | 2019-07-31 | 2019-09-20 | 华东交通大学 | 一种分布式群体机器人的自主避障蜂拥控制方法 |
CN111176328A (zh) * | 2020-01-17 | 2020-05-19 | 浙江大学 | 一种基于欠信息下的多auv分布式目标围捕控制方法 |
CN111240332A (zh) * | 2020-01-18 | 2020-06-05 | 湖南科技大学 | 一种复杂凸环境下群机器人协同作业的多目标围捕方法 |
CN111240333A (zh) * | 2020-01-18 | 2020-06-05 | 湖南科技大学 | 一种复杂非凸环境下群机器人协同作业的多目标围捕方法 |
CN112462779A (zh) * | 2020-11-30 | 2021-03-09 | 汕头大学 | 基于基因调控网络的群体机器人动态围捕控制方法及系统 |
-
2021
- 2021-07-12 CN CN202110785777.3A patent/CN113485340A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10228315A (ja) * | 1997-02-13 | 1998-08-25 | Honda Motor Co Ltd | ハンチング防止装置付自律走行ロボット |
CN104942807A (zh) * | 2015-04-16 | 2015-09-30 | 上海大学 | 基于扩展式合作博弈的多机器人围捕目标方法 |
CN109079792A (zh) * | 2018-09-05 | 2018-12-25 | 顺德职业技术学院 | 一种基于多机器人的目标围捕方法及系统 |
CN110262523A (zh) * | 2019-07-31 | 2019-09-20 | 华东交通大学 | 一种分布式群体机器人的自主避障蜂拥控制方法 |
CN111176328A (zh) * | 2020-01-17 | 2020-05-19 | 浙江大学 | 一种基于欠信息下的多auv分布式目标围捕控制方法 |
CN111240332A (zh) * | 2020-01-18 | 2020-06-05 | 湖南科技大学 | 一种复杂凸环境下群机器人协同作业的多目标围捕方法 |
CN111240333A (zh) * | 2020-01-18 | 2020-06-05 | 湖南科技大学 | 一种复杂非凸环境下群机器人协同作业的多目标围捕方法 |
CN112462779A (zh) * | 2020-11-30 | 2021-03-09 | 汕头大学 | 基于基因调控网络的群体机器人动态围捕控制方法及系统 |
Non-Patent Citations (1)
Title |
---|
范衠: "基于合作自主定位的群体模式自动生成方法", 《汕头大学学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114326747A (zh) * | 2022-01-06 | 2022-04-12 | 中国人民解放军国防科技大学 | 群体机器人多目标围捕控制方法、装置和计算机设备 |
CN114326747B (zh) * | 2022-01-06 | 2023-10-24 | 中国人民解放军国防科技大学 | 群体机器人多目标围捕控制方法、装置和计算机设备 |
CN115145289A (zh) * | 2022-09-02 | 2022-10-04 | 汕头大学 | 多智能体协同围捕方法、系统、设备及存储介质 |
CN116339351A (zh) * | 2023-05-29 | 2023-06-27 | 汕头大学 | 一种基于基因调控网络的智能体集群区域覆盖方法及系统 |
CN116339351B (zh) * | 2023-05-29 | 2023-09-01 | 汕头大学 | 一种基于基因调控网络的智能体集群区域覆盖方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113485340A (zh) | 群体机器人分布式围捕控制方法及系统 | |
US11709058B2 (en) | Path planning method and device and mobile device | |
Thompson et al. | A probabilistic model of human motion and navigation intent for mobile robot path planning | |
CN109709945B (zh) | 一种基于障碍物分类的路径规划方法、装置及机器人 | |
US10948907B2 (en) | Self-driving mobile robots using human-robot interactions | |
Zhang et al. | Vision-based target-following guider for mobile robot | |
US20200257821A1 (en) | Video Monitoring Method for Mobile Robot | |
CN109325456B (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
CN111015656A (zh) | 一种机器人主动避障的控制方法、装置及存储介质 | |
CN110749901B (zh) | 自主移动机器人及其地图拼接方法、装置和可读存储介质 | |
CN109932713A (zh) | 定位方法、装置、计算机设备、可读存储介质和机器人 | |
CN112527020B (zh) | 一种基于群体机器人的目标围捕控制方法及系统 | |
US10902610B2 (en) | Moving object controller, landmark, and moving object control method | |
CN112171675B (zh) | 一种移动机器人的避障方法、装置、机器人及存储介质 | |
CN111964680A (zh) | 一种巡检机器人的实时定位方法 | |
CN111380533B (zh) | 定位导航方法、设备及存储装置 | |
CN114594772A (zh) | 机器人、路径规划方法、装置和存储介质 | |
EP3098682B1 (en) | Moving object controller, program, and integrated circuit | |
CN110568846A (zh) | 一种agv的智能导航方法及系统 | |
WO2023216555A1 (zh) | 基于双目视觉的避障方法、装置、机器人及介质 | |
Carpin et al. | Cooperative motion coordination amidst dynamic obstacles | |
CN113359705A (zh) | 一种路径规划方法、编队协同作业方法及其设备 | |
CN116661468B (zh) | 障碍物检测方法、机器人及计算机可读存储介质 | |
CN110450168B (zh) | 一种机器人及其自主导航方法、装置、存储介质 | |
Hodges et al. | Multistage bayesian autonomy for high‐precision operation in a large field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |