CN112601060B - 一种桌面集群机器人的主动共享投影面感知系统 - Google Patents
一种桌面集群机器人的主动共享投影面感知系统 Download PDFInfo
- Publication number
- CN112601060B CN112601060B CN202011451435.XA CN202011451435A CN112601060B CN 112601060 B CN112601060 B CN 112601060B CN 202011451435 A CN202011451435 A CN 202011451435A CN 112601060 B CN112601060 B CN 112601060B
- Authority
- CN
- China
- Prior art keywords
- module
- robot
- processing unit
- micro
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3182—Colour adjustment, e.g. white balance, shading or gamut
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Abstract
本发明公开了一种桌面集群机器人的主动共享投影面感知系统,包括CMOS视觉传感器模块、RGB射灯模块、微型处理单元、MicroSD卡存储模块、2.4g无线通信模块和电源模块。该系统基于视觉传感技术,机器人个体首先要向顶层投影面发射RGB射灯标示,并利用视觉传感器捕捉顶部图像信息,识别出图像信息上所有的标示的位置和所指向的方向,计算出邻居相对与自身的相对位置和相对航向,并存储至存储器中。本发明仅需要机器人搭载廉价摄像头模块和激光发射器,便可主动共享自身的状态信息以及获取周围邻居的运动状态信息,有助于提高集群算法向机器集群的可迁移性。
Description
技术领域
本发明属于机器人技术领域,具体涉及一种环境感知系统。
背景技术
机器人技术是综合了计算机、控制论、机构学、信息和传感技术、人工智能、仿生学等多学科而形成的高新技术,特别是多机器人协作成为提高解决复杂任务效率的有效途径。传统的中心控制方式对所有机器人行为进行统一规划,当协作机器人规模较大时,中心控制方法的容错能力不足,难以对突发因素做出及时响应。集群机器人研究的快速发展为上述困难的解决提供了可行方案。
集群机器人旨在通过个体间简单的交互规则涌现出复杂的集群行为,使多机器人系统具备高效完成复杂任务的能力。如何通过局部、简单的相互作用,使包含大量简单机器人的系统涌现出复杂、宏观的集群行为,是学者关注的重点,目前国际上经典的集群算法框架有Vicsek、Couzin以及社会力模型等。这些集群模型框架都要求个体具备全局感知的能力,综合周围邻居个体的运动状态信息完成自身的运动决策。随着对群体机器人自组织运动控制算法研究的深入,采用集群机器人验证集群算法称为工程化应用前必不可少的一部分,为完成集群算法验证实验,必须使机器人具备全局感知的能力。
集群机器人系统要求每一个机器人系统简单、成本低,因此集群机器人无法安装GPS这样高成本、大功率的定位设备,采用伪分布式的全局感知成为重要突破口。
发明内容
为了克服现有技术的不足,本发明提供了一种桌面集群机器人的主动共享投影面感知系统。包括CMOS视觉传感器模块、RGB射灯模块、微型处理单元、MicroSD卡存储模块、2.4g无线通信模块和电源模块。该系统基于视觉传感技术,机器人个体首先要向顶层投影面发射RGB射灯标示,并利用视觉传感器捕捉顶部图像信息,识别出图像信息上所有的标示的位置和所指向的方向,计算出邻居相对与自身的相对位置和相对航向,并存储至存储器中。本发明仅需要机器人搭载廉价摄像头模块和激光发射器,便可主动共享自身的状态信息以及获取周围邻居的运动状态信息,有助于提高集群算法向机器集群的可迁移性。
本发明解决其技术问题所采用的技术方案如下:
一种桌面集群机器人的主动共享投影面感知系统,该系统设置在机器人顶部,包括CMOS视觉传感器模块、RGB射灯模块、微型处理单元、MicroSD卡存储模块、2.4g无线通信模块和电源模块;
所述RGB射灯模块上设置标示透板,RGB射灯射出的光线通过标示透板后在上顶层投影板形成一个标示,标示为高底比大于1的等腰三角形,在等腰三角形内部设置一圆,圆心为三角形形心,圆的半径小于三角形内切圆半径;不同机器人的RGB射灯射出的光线颜色不完全相同;每个机器人在上顶层投影板形成一个标示;
所述CMOS视觉传感器模块负责获取上顶层投影板上由所有机器人形成的标示组成的顶部图像,并将顶部图像传送给微型处理单元;
所述微型处理单元的输入为CMOS视觉传感器模块获取的顶部图像,根据顶部图像信息计算出与周围邻居机器人的相对距离及相对航向;微型处理单元控制RGB射灯模块发射光线到上顶层投影板;微型处理单元与Micro-SD卡存储模块双向通信,控制Micro-SD卡存储模块存取过程数据;微型处理单元与通信模块双向通信,控制通信模块将微型处理单元计算出的周围邻居机器人的状态信息发送给桌面集群机器人系统的其他终端;
所述电源模块包括3.3V电源输出和5.0V电源输出,所述3.3V电源为微型处理单元、2.4g无线通信模块以及RGB射灯模块供电;所述5.0V电源输出为MicroSD卡存储模块和CMOS视觉传感器模块供电。
一种应用于桌面集群机器人的主动共享投影面感知系统的标示识别方法,包括如下步骤:
步骤1:将CMOS视觉传感器模块获取的顶部图像进行灰度化处理,生成灰度图像,对灰度图像进行高斯滤波形成灰度直方图,根据灰度直方图设定阈值,对灰度图像做二值化处理;
步骤2:采用opencv对步骤1得到的二值化图像进行处理,得到顶部图像中所有标示里的圆心坐标;
步骤3:根据步骤2中找到的圆心坐标,在每个圆半径的A倍范围内搜索图像,采用opencv,找到等腰三角形三条边的三个交点的坐标,以三条边的斜率确定出等腰三角形顶点坐标;
步骤4:以每个标示内的圆心坐标作为相对应的机器人位置坐标。
一种应用于桌面集群机器人的主动共享投影面感知系统的机器人相对距离计算方法如下:
假设任一机器人位置坐标为(x1,y1),邻居机器人的位置坐标为(x2,y2),以欧拉距离l表示任一机器人与邻居机器人的相对距离,计算公式如下:
一种应用于桌面集群机器人的主动共享投影面感知系统的机器人相对航向计算方法如下:
假设任一机器人位置坐标为(x1,y1),对应标示的等腰三角形的顶点坐标为(x3,y3);邻居机器人的位置坐标为(x2,y2),对应标示的等腰三角形的顶点坐标为(x4,y4),则任一机器人与邻居机器人的相对航向计算如下:
任一机器人的单位航向向量可表示为:
其邻居机器人的单位航向向量可表示为:
可得相对航向θ为
θ=sign(p1p4-p3p2)·acos(p1p3+p2p4)。
优选地,所述CMOS视觉传感器模块通过DCMI接口将顶部图像传送给微型处理单元。
优选地,所述Micro-SD卡存储模块存入的数据为csv形式,Micro-SD卡存储模块与微型处理单元采用SPI接口进行通信。
优选地,所述周围邻居机器人的状态信息包括但不限于位置和航向信息。
优选地,所述高底比大于1的等腰三角形的高底比为3:2。
本发明提出的一种桌面集群机器人的主动共享投影面感知系统,仅需要机器人搭载廉价摄像头模块和激光发射器,便可主动共享自身的状态信息以及获取周围邻居的运动状态信息,本发明系统和方法有助于提高集群算法向机器集群的可迁移性。
附图说明
图1为本发明的系统结构图。
图2为本发明的系统应用示意图。
图3为本发明的RGB射灯模块形成的标示示意图。
图4为本发明机器人相对航向计算方法示意图。
其中:1-标示;2-上顶层投影板;3-地面;4-RGB射灯模块;5-标示内的圆;6-航向定位线。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
针对桌面集群机器人无法搭载高功率、高成本定位传感器、不易获取全局感知信息的瓶颈问题,本发明设计了一种面向桌面集群机器人的主动共享投影面环境感知系统及方法。主动共享投影面的环境感知方法是基于视觉传感技术,机器人个体首先要向顶层投影面发射RGB射灯标示,并利用视觉传感器捕捉顶部图像信息,识别出图像信息上所有的标示的位置和所指向的方向,计算出邻居相对与自身的相对位置和相对航向,并存储至存储器中。
本发明提供一种桌面集群机器人的主动共享投影面感知系统,该系统设置在机器人顶部,包括CMOS视觉传感器模块、RGB射灯模块、微型处理单元、MicroSD卡存储模块、2.4g无线通信模块和电源模块;
所述RGB射灯模块上设置标示透板,RGB射灯射出的光线通过标示透板后在上顶层投影板形成一个标示,标示为高底比为3:2的等腰三角形,在等腰三角形内部设置一圆,圆心为三角形形心,圆的半径小于三角形内切圆半径;不同机器人的RGB射灯射出的光线颜色不完全相同,RGB射灯模块的不同颜色用于代表个体的不同类型,例如区分集群算法在追逃场景下的捕食者、猎物等不同角色;每个机器人在上顶层投影板形成一个标示;
所述CMOS视觉传感器模块负责获取上顶层投影板上由所有机器人形成的标示组成的顶部图像,并将顶部图像以DCMI接口传送给微型处理单元;
所述微型处理单元的输入为CMOS视觉传感器模块获取的顶部图像,根据顶部图像信息计算出与周围邻居机器人的相对距离及相对航向;微型处理单元控制RGB射灯模块发射光线到上顶层投影板;微型处理单元与Micro-SD卡存储模块双向通信,控制Micro-SD卡存储模块存取过程数据;微型处理单元与通信模块双向通信,控制通信模块将微型处理单元计算出的周围邻居机器人的状态信息如位置和航向信息发送给桌面集群机器人系统的其他终端,例如个体机器人、上位机监控系统等;
所述电源模块包括3.3V电源输出和5.0V电源输出,所述3.3V电源为微型处理单元、2.4g无线通信模块以及RGB射灯模块供电;所述5.0V电源输出为MicroSD卡存储模块和CMOS视觉传感器模块供电。
一种应用于桌面集群机器人的主动共享投影面感知系统的标示识别方法,包括如下步骤:
步骤1:将CMOS视觉传感器模块获取的顶部图像进行灰度化处理,生成灰度图像,对灰度图像进行高斯滤波形成灰度直方图,根据灰度直方图设定阈值,对灰度图像做二值化处理;
步骤2:采用opencv对步骤1得到的二值化图像进行处理,得到顶部图像中所有标示里的圆心坐标;
步骤3:根据步骤2中找到的圆心坐标,在每个圆半径的A倍范围内搜索图像,采用opencv,找到等腰三角形三条边的三个交点的坐标,以三条边的斜率确定出等腰三角形顶点坐标;
步骤4:以每个标示内的圆心坐标作为相对应的机器人位置坐标。
一种应用于桌面集群机器人的主动共享投影面感知系统的机器人相对距离计算方法如下:
假设任一机器人位置坐标为(x1,y1),邻居机器人的位置坐标为(x2,y2),以欧拉距离l表示任一机器人与邻居机器人的相对距离,计算公式如下:
一种应用于桌面集群机器人的主动共享投影面感知系统的机器人相对航向计算方法如下:
假设任一机器人位置坐标为(x1,y1),对应标示的等腰三角形的顶点坐标为(x3,y3);邻居机器人的位置坐标为(x2,y2),对应标示的等腰三角形的顶点坐标为(x4,y4),则任一机器人与邻居机器人的相对航向计算如下:
则任一机器人与邻居机器人的相对航向计算如下:
任一机器人的单位航向向量可表示为:
其邻居机器人的单位航向向量可表示为:
可得相对航向θ为
θ=sign(p1p4-p3p2)·acos(p1p3+p2p4)。
具体实施方式:
图1为桌面集群机器人的主动共享投影面感知系统结构图,系统包括CMOS视觉传感器模块、RGB射灯模块、微型处理单元、MicroSD卡存储模块、2.4g无线通信模块、电源模块。CMOS视觉传感器模块采用OV2640,OV2640是1/4寸的CMOS UXGA(1632*1232)图像传感器,UXGA最高15帧/秒,以DCMI接口与微型中央处理器交换数据。RGB射灯模块,由RGB射灯以及标示透板组成,标示的外部轮廓由高-底比为3:2的等腰三角形组成,内部在等腰三角形的形心处放置圆圈,RGB射灯模块的不同的颜色用于代表个体的不同类型。微型处理单元采用以为内核的嵌入式芯片,工作频率高达480MHz,包含Chrom-ARTAccelerato提高了图形内容处理速度。MicroSD卡存储模块采用CH376S SD卡管理芯片,支持USB设备方式和USB主机方式,并且内置了USB通讯协议的基本固件,内置了处理Mass-Storage海量存储设备的专用通讯协议的固件,SD卡的通讯接口固件,以及FAT16、FAT32和FAT12文件系统的管理固件,支持常用的USB存储设备。2.4g无线通信模块采用NRF24L01无线通信模块,工作于2.4GHz~2.5GHz ISM频段。电源模块分为3.3V电源输出和5.0V电源输出,由7.4V锂电池为电源模块供电,经稳压芯片AMS1117-3.3V后输出3.3V电源,经AMS1117-5.0V后输出5.0V电源,3.3V电源输出为微型处理单元和2.4g无线通信模块以及RGB射灯供电,5.0V电源输出为MicroSD卡存储模块、CMOS视觉传感器模块供电。
图2为桌面集群机器人的主动共享投影面感知系统应用示意图,以桌面级移动机器人为平台,搭载主动共享投影面环境感知系统,首先主动共享投影面环境感知系统向上发射代表自身角色的颜色标示,并利用CMOS视觉传感器获取顶部视野范围内的所有标示。随后区分自身标示与邻居标示,自身标示为距离图像中心坐标最近的标示,其次再计算出各个标示与自身标示的距离以及各个标示的航向偏角。
图3为RGB射灯模块投影图,标示的外部轮廓由高-底比为3:2的等腰三角形组成,内部在等腰三角形的形心出放置圆圈,RGB射灯模块的不同的颜色用于代表个体的不同类型。
图4为位置及航向计算原理图,标示位置的确定依赖于对标示中圆圈圆心的识别,航向的计算依赖于对直线交点的识别,可采用基于OpenCV的识别库,OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉和机器学习软件库,它轻量级而且高效--由一系列C函数和少量C++类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。
首先实现对标示的三角形外轮廓、顶点以及内部圆圈轮廓、圆心进行识别:
1、顶部图像进行灰度化处理,生成灰度图片,接下来对输入灰度图片进行高斯滤波做灰度直方图,提取阈值,做二值化处理。
2、调用opencv中HoughCircles函数,输入步骤1中得到的二值化图像,circles为输出圆向量,每个向量包括三个浮点型的元素—(x,y,radius),即可得到圆心坐标,作为标示的位置。
3、根据步骤2中找到的圆心坐标,以圆心半径的倍数裁剪图像,并调用OpenCV中FindPoint函数,查找出三角形的三个交点坐标,以交点连线的不同斜率确定出等腰三角形顶点坐标。
再根据相对距离的计算方法和相对航向的计算方法计算机器人之间的相对距离和性对航向。
Claims (5)
1.一种桌面集群机器人的主动共享投影面感知系统,其特征在于,该系统设置在机器人顶部,包括CMOS视觉传感器模块、RGB射灯模块、微型处理单元、MicroSD卡存储模块、2.4g无线通信模块和电源模块;
所述RGB射灯模块上设置标示透板,RGB射灯射出的光线通过标示透板后在上顶层投影板形成一个标示,标示为高底比大于1的等腰三角形,在等腰三角形内部设置一圆,圆心为三角形形心,圆的半径小于三角形内切圆半径;不同机器人的RGB射灯射出的光线颜色不完全相同;每个机器人在上顶层投影板形成一个标示;
所述CMOS视觉传感器模块负责获取上顶层投影板上由所有机器人形成的标示组成的顶部图像,并将顶部图像传送给微型处理单元;
所述微型处理单元的输入为CMOS视觉传感器模块获取的顶部图像,根据顶部图像信息计算出与周围邻居机器人的相对距离及相对航向;微型处理单元控制RGB射灯模块发射光线到上顶层投影板;微型处理单元与Micro-SD卡存储模块双向通信,控制Micro-SD卡存储模块存取过程数据;微型处理单元与通信模块双向通信,控制通信模块将微型处理单元计算出的周围邻居机器人的状态信息发送给桌面集群机器人系统的其他终端;
所述电源模块包括3.3V电源输出和5.0V电源输出,所述3.3V电源为微型处理单元、2.4g无线通信模块以及RGB射灯模块供电;所述5.0V电源输出为MicroSD卡存储模块和CMOS视觉传感器模块供电。
2.根据权利要求1所述的一种桌面集群机器人的主动共享投影面感知系统,其特征在于,所述CMOS视觉传感器模块通过DCMI接口将顶部图像传送给微型处理单元。
3.根据权利要求1所述的一种桌面集群机器人的主动共享投影面感知系统,其特征在于,所述Micro-SD卡存储模块存入的数据为csv形式,Micro-SD卡存储模块与微型处理单元采用SPI接口进行通信。
4.根据权利要求1所述的一种桌面集群机器人的主动共享投影面感知系统,其特征在于,所述周围邻居机器人的状态信息包括位置和航向信息。
5.根据权利要求1所述的一种桌面集群机器人的主动共享投影面感知系统,其特征在于,所述高底比大于1的等腰三角形的高底比为3:2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011451435.XA CN112601060B (zh) | 2020-12-10 | 2020-12-10 | 一种桌面集群机器人的主动共享投影面感知系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011451435.XA CN112601060B (zh) | 2020-12-10 | 2020-12-10 | 一种桌面集群机器人的主动共享投影面感知系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112601060A CN112601060A (zh) | 2021-04-02 |
CN112601060B true CN112601060B (zh) | 2022-03-15 |
Family
ID=75192265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011451435.XA Active CN112601060B (zh) | 2020-12-10 | 2020-12-10 | 一种桌面集群机器人的主动共享投影面感知系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112601060B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114407036B (zh) * | 2022-01-27 | 2024-03-22 | 国科温州研究院(温州生物材料与工程研究所) | 集群机器人及其充电设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105425791A (zh) * | 2015-11-06 | 2016-03-23 | 武汉理工大学 | 一种基于视觉定位的群机器人控制系统及方法 |
CN106643701A (zh) * | 2017-01-16 | 2017-05-10 | 深圳优地科技有限公司 | 一种机器人互相检测方法及装置 |
CN111083332A (zh) * | 2019-12-30 | 2020-04-28 | 科沃斯机器人股份有限公司 | 结构光模组、自主移动设备以及光源区分方法 |
CN111168669A (zh) * | 2019-12-26 | 2020-05-19 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
CN111666215A (zh) * | 2020-06-04 | 2020-09-15 | 清华大学 | 用于分布式算法测试和人机交互研究的桌面集群硬件平台 |
CN112033295A (zh) * | 2020-09-07 | 2020-12-04 | 汕头市超声仪器研究所股份有限公司 | 一种基于激光标示的定距装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11137773B2 (en) * | 2018-05-04 | 2021-10-05 | Lg Electronics Inc. | Plurality of autonomous mobile robots and controlling method for the same |
-
2020
- 2020-12-10 CN CN202011451435.XA patent/CN112601060B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105425791A (zh) * | 2015-11-06 | 2016-03-23 | 武汉理工大学 | 一种基于视觉定位的群机器人控制系统及方法 |
CN106643701A (zh) * | 2017-01-16 | 2017-05-10 | 深圳优地科技有限公司 | 一种机器人互相检测方法及装置 |
CN111168669A (zh) * | 2019-12-26 | 2020-05-19 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
CN111083332A (zh) * | 2019-12-30 | 2020-04-28 | 科沃斯机器人股份有限公司 | 结构光模组、自主移动设备以及光源区分方法 |
CN111666215A (zh) * | 2020-06-04 | 2020-09-15 | 清华大学 | 用于分布式算法测试和人机交互研究的桌面集群硬件平台 |
CN112033295A (zh) * | 2020-09-07 | 2020-12-04 | 汕头市超声仪器研究所股份有限公司 | 一种基于激光标示的定距装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112601060A (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11302011B2 (en) | Perspective conversion for multi-dimensional data analysis | |
Paull et al. | Duckietown: an open, inexpensive and flexible platform for autonomy education and research | |
US10509947B1 (en) | Converting multi-dimensional data for image analysis | |
Krajník et al. | A practical multirobot localization system | |
CN107038429A (zh) | 一种基于深度学习的多任务级联人脸对齐方法 | |
CN112665575B (zh) | 一种基于移动机器人的slam回环检测方法 | |
CN112601060B (zh) | 一种桌面集群机器人的主动共享投影面感知系统 | |
Bian et al. | A monocular vision–based perception approach for unmanned aerial vehicle close proximity transmission tower inspection | |
CN107943077A (zh) | 一种无人机降落目标的追踪方法、装置和无人机 | |
CN1959702A (zh) | 人脸识别系统中的人脸特征点定位方法 | |
WO2021217977A1 (zh) | 多机器人的协作控制方法、装置及计算机设备 | |
CN113485350A (zh) | 一种机器人移动控制方法、装置、设备及存储介质 | |
CN113311821A (zh) | 一种多悬垂管道探伤移动机器人的建图与定位系统及方法 | |
CN113761255B (zh) | 机器人室内定位方法、装置、设备及存储介质 | |
CN111552292A (zh) | 基于视觉的移动机器人路径生成与动态目标跟踪方法 | |
Wang et al. | Optiswarm: optical swarm robots using implicit cooperation | |
CN114549562A (zh) | 基于UNet的半自动化的倾斜摄影实景模型建筑物单体化方法、系统、设备和存储介质 | |
US11645778B2 (en) | Apparatus and method for identifying and picking object using artificial intelligence algorithm | |
WO2022142890A1 (zh) | 数据处理方法及相关装置 | |
Cao | Beacon recognition in omni-vision guidance | |
Jiaxin et al. | Vision-based autonomous landing of unmanned aerial vehicles | |
CN114019963B (zh) | 一种面向桌面集群机器人的外部定位系统 | |
CN109241567B (zh) | 一种舰载机自动调度半实物仿真系统及方法 | |
Šul'aj et al. | UAV management system for the smart city | |
Shao et al. | Visual Feedback Control Through Real-Time Movie Frames for Quadcopter with Object Count Function and Pick-and-Place Robot With Orientation Estimator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |